Industrielle Fertigung
Industrielles Internet der Dinge | Industrielle Materialien | Gerätewartung und Reparatur | Industrielle Programmierung |
home  MfgRobots >> Industrielle Fertigung >  >> Industrial Internet of Things >> Eingebettet

Plädoyer für neuromorphe Chips für KI-Computing

Als Apple-CEO Tim Cook stellte das iPhone X vor und behauptete, es würde „den Weg für die Technologie für das nächste Jahrzehnt ebnen“. Obwohl es noch zu früh ist, um das zu sagen, war die neuronale Engine, die für die Gesichtserkennung verwendet wurde, die erste ihrer Art. Heutzutage sind tiefe neuronale Netze Realität, und Neuromorphie scheint der einzige praktische Weg zu sein, um kontinuierliche Fortschritte in der KI zu erzielen.

Angesichts der Beschränkungen der Datenbandbreite und der ständig steigenden Rechenanforderungen müssen sich Sensorik und Computer neu erfinden, indem sie neurobiologische Architekturen nachahmen, behauptete ein kürzlich veröffentlichter Bericht von Yole Développement (Lyon, Frankreich).

In einem Interview mit EE Times , Pierre Cambou, Principal Analyst for Imaging bei Yole, erklärte, dass neuromorphe Sensorik und Computing die meisten aktuellen Probleme der KI lösen und gleichzeitig neue Anwendungsperspektiven in den nächsten Jahrzehnten eröffnen könnten. „Neuromorphe Technik ist der nächste Schritt in Richtung Biomimikry und treibt den Fortschritt in Richtung KI voran.“

Warum jetzt?

Siebzig Jahre sind vergangen, seit der Mathematiker Alan Turing die Frage „Können Maschinen denken?“ gestellt hat, und dreißig Jahre, seit Carver Mead, ein Elektroingenieur am California Institute of Technology, das Konzept der neuromorphen Technik eingeführt hat. Im nächsten Jahrzehnt erlebten die Forscher jedoch wenig praktische Erfolge beim Bauen von Maschinen mit gehirnähnlicher Lern- und Anpassungsfähigkeit. Die Hoffnung keimte wieder auf, als Georgia Tech 2006 sein feldprogrammierbares neuronales Array vorstellte und MIT-Forscher einen Computerchip enthüllten, der nachahmt, wie sich die Neuronen des Gehirns als Reaktion auf neue Informationen anpassen.

Der Wendepunkt war die Veröffentlichung des Papiers „ImageNet Classification with Deep Convolutional Neural Networks“ durch eine Gruppe von Wissenschaftlern der University of Toronto. Die AlexNet-Architektur, bestehend aus einem achtschichtigen Convolutional Neural Network, ermöglichte es, die 1,2 Millionen hochauflösenden Bilder des ImageNet-Wettbewerbs in eine der 1.000 Kategorien (z. B. Katzen, Hunde) einzuordnen. „Erst mit der Entwicklung von AlexNet erwies sich der Deep-Learning-Ansatz als leistungsfähiger und gewann im KI-Bereich an Bedeutung.“


Pierre Cambou

Die meisten aktuellen Deep-Learning-Implementierungstechniken beruhen auf dem Mooreschen Gesetz und "es funktioniert einwandfrei". Mit der Weiterentwicklung von Deep Learning wird die Nachfrage nach Chips jedoch immer größer werden, die hohe Rechenaufgaben erfüllen können. Das Mooresche Gesetz hat sich in letzter Zeit verlangsamt und hat viele in der Branche, einschließlich Yole Développement, zu der Annahme veranlasst, dass es nicht in der Lage sein wird, den Fortschritt des Deep Learning aufrechtzuerhalten. Cambou gehört zu denen, die glauben, dass Deep Learning „fehlschlagen“ wird, wenn es weiterhin so implementiert wird, wie es heute ist.

Um seinen Standpunkt zu erläutern, nannte Cambou drei Haupthürden. Die erste ist die Ökonomie des Mooreschen Gesetzes. „Sehr wenige Spieler werden in der Lage sein zu spielen, und wir werden am Ende ein oder zwei Fabs auf der Welt haben, die über 7 nm hinausgehen. Wir denken, dass es der Innovation schadet, wenn nur Google etwas tun kann.“

Zweitens steigt die Datenlast schneller als das Mooresche Gesetz und der Datenüberlauf macht aktuelle Speichertechnologien zu einem limitierenden Faktor. Und drittens hat der exponentielle Anstieg des Rechenleistungsbedarfs für jede Anwendung eine Hitzewand geschaffen. „Mit 7-nm-Chips haben wir ungefähr eine Effizienz von einem Teraflop pro Watt. Um einen Waymo mit Strom zu versorgen, brauchen wir wahrscheinlich ein Kilowatt, was bedeutet, dass wir tausend Teraflops brauchen“, sagte Cambou. Das aktuelle Technologieparadigma kann das Versprechen nicht einlösen, und die Lösung könnte darin bestehen, Deep Learning auf neuromorpher Hardware anzuwenden und die viel bessere Energieeffizienz zu nutzen.

Bei einem umfassenderen Blick auf die aktuelle Situation sagte Cambou, es sei an der Zeit für einen disruptiven Ansatz, der die Vorteile aufkommender Speichertechnologien nutzt und die Datenbandbreite und Energieeffizienz verbessert. Das ist der neuromorphe Ansatz. „Die KI-Geschichte wird sich weiter entwickeln und wir glauben, dass der nächste Schritt in die neuromorphe Richtung geht.“

In den letzten Jahren wurden viele Anstrengungen unternommen, um neuromorphe Hardware zu bauen, die kognitive Fähigkeiten durch die Implementierung von Neuronen in Silizium vermittelt. Für Cambou ist dies der richtige Weg, da „der neuromorphe Ansatz alle richtigen Kästchen ankreuzt“ und eine weitaus höhere Effizienz ermöglicht. „Hardware hat neuronale Netze und Deep Learning ermöglicht und wir glauben, dass sie den nächsten Schritt in der neuromorphen KI ermöglichen wird. Dann können wir wieder von KI träumen und von KI-basierten Anwendungen träumen.“


Credit:Yole

Neuronen und Synapsen

Neuromorphe Hardware verlässt das Forschungslabor mit einer Konvergenz von Interessen und Zielen aus den Bereichen Sensorik, Computer und Speicher. Es werden Joint Ventures gebildet, strategische Allianzen unterzeichnet und jahrzehntelange Forschungsinitiativen wie das Human Brain Project der Europäischen Union ins Leben gerufen.

Obwohl vor 2024 kein nennenswertes Geschäft erwartet wird, könnte das Ausmaß der Gelegenheit noch Jahrzehnte danach erheblich sein. Wenn alle technischen Fragen in den nächsten Jahren gelöst sind, könnte der Markt für neuromorphe Computer laut Yole von 69 Millionen US-Dollar im Jahr 2024 auf 5 Milliarden US-Dollar im Jahr 2029 und auf 21,3 Milliarden US-Dollar im Jahr 2034 ansteigen. Das Ökosystem ist groß und vielfältig mit prominenten Akteuren wie Samsung, Intel und SK Hynix sowie Startups wie Brainchip, Nepes, Vicarious und General Vision.

Neuromorphe Chips sind keine Theorie mehr, sondern eine Tatsache. 2017 stellte Intel Loihi vor, seinen ersten neuromorphen Forschungschip, der aus 130.000 Neuronen besteht. Im Juli erreichte die Santa Clara-Gruppe mit ihrem 8 Millionen Neuronen neuromorphen System mit dem Codenamen Pohoiki Beach, das 64 Loihi-Forschungschips umfasst, einen neuen Meilenstein. Ähnlich hat der vom Gehirn inspirierte TrueNorth-Computerchip von IBM 1 Million Neuronen und 256 Millionen Synapsen und das neuromorphe Akida-System-on-Chip von Brainchip 1,2 Millionen Neuronen und 10 Milliarden Synapsen.

„Es gibt einen Wettlauf um die Bereitstellung von Hardware, die die Messlatte in Bezug auf Neuronen und Synapsen höher legen würde. Synapsen sind wahrscheinlich wichtiger als Neuronen“, sagt Cambou. „Bei Yole sehen wir zwei Schritte vor uns. Erstens die Anwendungen, die auf dem aktuellen Ansatz aufbauen, teils asynchron und teils von Neumann.“ Gute Beispiele sind Akida von Brainchip und Loihi von Intel. „Dann werden wir wahrscheinlich innerhalb der nächsten 10 bis 15 Jahre RRAM [resistive Random Access Memory] obendrauf bekommen. Dadurch können mehr Synapsen geschaffen werden.“

Neuromorphe Computing-Bemühungen kommen von Speicheranbietern wie Micron, Western Digital und SK Hynix, aber viele streben kurzfristige Einnahmen an und werden letztendlich möglicherweise keine starken Akteure in der neuromorphen Forschung. „Wir sollten uns kleine Spieler ansehen, die sich für Neuromorphie als ihre Kerntechnologie entschieden haben“, sagte Cambou.

Disruptive Speicher-Startups wie Weebit, Robosensing, Knowm, Memry und Symetrix kombinieren nichtflüchtige Speichertechnologie mit neuromorphen Computerchipdesigns. Sie sind zusammen mit reinen Speicher-Startups wie Crossbar und Adesto entstanden, aber ihr Memristor-Ansatz (Speicherwiderstand) wird oft als langfristiger angesehen als die Bemühungen von reinen Computerunternehmen. „Viele Speicherspieler arbeiten an RRAM- und Phasenwechselspeichern, um die Synapse nachzuahmen“, sagte Cambou. Außerdem „ist der MRAM [magnetoresistive Random Access Memory] ein Teil der neuen Speicher, die dem neuromorphen Ansatz zum Erfolg verhelfen.“


Credit:Yole

Neben dem Computing ist ein neuromorphes Sensor-Ökosystem entstanden, dessen Wurzeln auf die Erfindung eines Siliziumneurons durch Misha Mahowald am Institut für Neuroinformatik und der ETH Zürich im Jahr 1991 zurückgehen. Die aktuelle Konkurrenz ist gering, mit weniger als zehn Spieler weltweit. Darunter bieten Prophesee, Samsung, Insightness, Inivation und Celepixel gebrauchsfertige Produkte wie ereignisbasierte Bildsensoren und Kameras. Der bildbasierte Ansatz, wie er in der Kinematografie verwendet wird, kann keine Bewegung erfassen.

"Das Kino betrügt unser Gehirn, aber wir können keinen Computer austricksen", sagte Cambou. „Der einzig richtige Weg, dies zu tun, besteht darin, die gleichen Informationen zu geben, die die Augen geben. Ereignisbasierte Kameras sind sehr stark für jede Art von Bewegungs- und Musterverständnis in Echtzeit.“ Im weiteren Sinne haben Hör-, Bildgebungs- und Verhaltenssensoren „einen Einfluss auf alle Ebenen dessen, was wir als allgemeine Intelligenz bezeichnen.“

Auf der Ebene der verpackten Halbleiter erwartet Yole, dass die neuromorphe Sensorik von 43 Millionen US-Dollar im Jahr 2024 auf 2 Milliarden US-Dollar im Jahr 2029 und auf 4,7 Milliarden US-Dollar im Jahr 2034 wachsen wird.

Automotive, aber nicht nur

Automobil ist wahrscheinlich der offensichtlichste Markt, sagte Cambou. Die ersten Märkte sind jedoch industriell und mobil, hauptsächlich für Robotik und Echtzeitwahrnehmung.

Kurzfristig werden neuromorphe Sensoren und Computer für die permanente Überwachung von Industriemaschinen eingesetzt. Es wird auch eine wichtige Rolle in der Logistik, der Lebensmittelautomatisierung und der Landwirtschaft spielen. „Während Deep Learning riesige Datensätze benötigt, lernt Neuromorphic extrem schnell aus nur wenigen Bildern oder wenigen Wörtern und versteht die Zeit“, sagte Cambou.

Innerhalb des nächsten Jahrzehnts sollte die Verfügbarkeit von hybriden In-Memory-Computing-Chips den Automobilmarkt erschließen, der verzweifelt auf eine massentaugliche autonome Fahrtechnologie wartet. „Wir leben in einer Welt der Interaktionen und Neuromorphie wird sehr stark sein, wenn es darum geht, Computern das Verständnis unstrukturierter Umgebungen zu vermitteln.“


Eingebettet

  1. Erforderliche Fähigkeiten für Cloud-Computing-Jobs in der heutigen IT-Branche
  2. Wie Hybrid Cloud die Grundlage für Edge Computing bietet
  3. Der C-Suite-Fall für DDMRP
  4. Die Argumente für die digitale Beschaffung sind stärker denn je
  5. Die Argumente dafür, die amerikanische Fertigung nach Hause zu bringen
  6. Die Pandemie treibt ein neues Modell für die Entscheidungsfindung in der Lieferkette
  7. Die Argumente für die Aufteilung des Inventars nach großen und kleinen Marken
  8. Plädoyer für 5G in der Fertigung
  9. Der beste chinesische Formenbauer für die Herstellung von Formen zu erschwinglichen Preisen
  10. Der Fall für den 3D-Druck in der Fertigung