Unterschiedliche Architekturen künstlicher Intelligenz

Unterschiedliche Architekturen künstlicher Intelligenz

Dank eines besseren Verständnisses, wie komplexe Architekturen zur Lösung von Optimierungsproblemen optimiert werden können, werden viele Fortschritte in der Computer- und Softwareentwicklung erzielt. Die jüngste Entwicklung einer neuen Deep-Learning-Software namens TensorFlow hat es Programmierern beispielsweise ermöglicht, auf einfache Weise eine Vielzahl von Netzwerken mit unterschiedlichen Konfigurationen zu erstellen und bereitzustellen. Anstatt eine große Menge an benutzerdefiniertem Code für eine CPU oder einen Mainframe zu schreiben, können Entwickler jetzt einfach Zehntausende oder sogar Hunderttausende kleiner Anwendungen auf einem Mainframe codieren. Deep Learning und andere tiefe neuronale Netze sind ebenfalls sehr beliebte und leistungsstarke Anwendungen. Ein großer Teil ihres Erfolgs liegt in der sorgfältigen Entwicklung der Netzwerkarchitektur.

Vor der Entwicklung von TensorFlow waren zwei verschiedene Arten von Architekturen bekannt. Eines davon ist das Inception-Modell, das nach Visa-Kartennetzwerken benannt wurde, die auf der Grundlage einer Fallstudie eines erfolgreichen Kunden die Entscheidung getroffen haben, die Rechenverarbeitung an ein privates Unternehmen auszulagern. Die andere Architektur bezieht sich eher auf traditionelle wissenschaftliche Berechnungen, bei denen die Designer einiger Architekturen die Kraft natürlicher Phänomene wie die exponentielle Anzahl von Schmetterlingszellen oder sogar die exponentiell wachsende Kugel nutzen.

Die Anfangsarchitekturen, die als Facebooks Bot-Architektur bzw. Googles Picasso-Architektur bezeichnet werden, sollen es Designern ermöglichen, schnell große Programme zu entwickeln, indem viele Ebenen mit jeweils nur wenigen Funktionen erstellt werden. Dies hat den Vorteil, dass die Ausführung jeder Schicht nur wenig Zeit in Anspruch nimmt, sodass die Leistung auf der CPU kein Problem darstellt. Da pro Programm nur wenige Funktionen erforderlich sind, können die Designer dieser Architekturen sie viel allgemeiner gestalten als die von ihnen inspirierten mathematischen Modelle. Die Picasso-Schicht von Google ist jedoch auch nützlich, da sie einen großen Vorteil beim Speicherverbrauch hat.

Der Facebook-Bot und die Friend-Bots von Twitter sind zwei Beispiele für die Inception-Ebene. Die erste Schicht ist eine Implementierung der NLP-Technologie (Natural Language Processing), die in NLP-Anwendungen (Natural Language Processing) wie der NLP Meta Environment (TNLP) verwendet wird. Dies ist ein Framework zum Erstellen hoch generischer, interaktiver Sprachschnittstellen. Die zweite Schicht ist eine CNN-Architektur (Convolutional Networking), ein fortschrittliches Framework für die Einbeziehung von Kanälen mit einer großen Anzahl von Parametern, wie z. B. der Stärke des Netzwerks, der Anzahl der Kanten und der Bandbreite der Kanäle.

Um ein CNN zu erstellen, müssen die CNN-Architekturen aus verschiedenen vorherigen Schichten zusammengesetzt sein. Beispielsweise kann die Netzwerkschicht aus einem künstlichen neuronalen System bestehen, und dann kann die nächste Schicht ein vollständig ausgebildeter Expertencomputer sein. Die CNN-Architekturen ermöglichen es den Designern, sehr komplexe Programme zu erstellen. Sie können Features aus vorherigen Ebenen kombinieren, um neue Features zu erstellen, die dann mit einer Deep-Learning-Software ausgeführt werden können. Deep Learning bezieht sich auf den Prozess des Entwerfens eines Computerprogramms und dessen anschließendes Ausführen unter Verwendung eines tiefen Speichers.

Ein weiterer beliebter Typ von KI-Architekturen ist das Convolutional Neural Network (ANN). Im Gegensatz zum CNN muss die neuronale Faltungsarchitektur das Merkmalsextraktionsmerkmal nicht in den Gewichten enthalten. Stattdessen stellt die Faltungsarchitektur Gewichte für jedes Merkmal eines Bildes bereit, und diese Gewichte werden in andere Funktionen wie die Kosinustransformation oder die Sigmoidfunktion transformiert. Der Faltungsalgorithmus findet die größte Übereinstimmung zwischen dem Eingabebild und der gewünschten Ausgabe, weshalb er als Faltungsarchitektur bezeichnet wird. Während die Faltung in der Regel effektiver ist als die LRO, ist sie bei der Bildklassifizierung weniger effizient.

Der allgemeinste Zweck einer KI-Architektur besteht darin, die Simulation der Interaktion in natürlicher Sprache zu ermöglichen. Einige Forscher bevorzugen jedoch die Verwendung der Xception-Software. Xception ist ein Open-Source-Projekt, das vom US-Verteidigungsministerium finanziert wird. Dieses Projekt wurde entwickelt, um visuelle Erkennungssoftware bereitzustellen, die eine breite Palette von Aufgaben ausführen kann, einschließlich Aufgaben, die für die industrielle Automatisierung relevant sind. Die aktuelle Architektur des Projekts umfasst vier Hauptmodule: den Erkennungstrainer, die Wissensmaschine, das visuelle Verarbeitungsmodul und den Wissensagenten.

Jede der obigen Architekturen ist für Anwendungen bei der Spracherkennung und Bildklassifizierung geeignet. Convolutional Neural Networks (CNN) und die nächste Schicht (Convolutional}) eignen sich für Aufgaben, die eine große Anzahl von überwachten Etikettenbildern erfordern (z. B. bei der Spracherkennung). Ein Nachteil bei CNN ist, dass die Größe des Netzwerks aufgrund von groß und langsam ist Die Akkumulation von Informationen über mehrere Ebenen hinweg. Die nächste Ebene ist jedoch viel schneller, da keine Daten über mehrere Ebenen hinweg akkumuliert werden. Die Intuition hinter der Faltung besteht darin, dass das Netzwerk schlechte Eingaben ablehnen und gute Eingaben basierend darauf ablehnen kann ihre räumliche Frequenz.

 

Share

Leave a Reply

Your email address will not be published. Required fields are marked *