Scharfer Wettstreit um den tiefsten Einblick in das Gehirn – was können Brain-Machine-Interface von Facebook, Neuralink , Paradromic und Ctrl-labs?

Scharfer Wettstreit um den tiefsten Einblick in das Gehirn – was können Brain-Machine-Interface von Facebook, Neuralink , Paradromic und Ctrl-labs?

7. August 2019 0 Von Horst Buchwald

Scharfer Wettstreit um den tiefsten Einblick in das Gehirn – was können Brain-Machine-Interface von Facebook, Neuralink , Paradromic und Ctrl-labs?

New York, 8.8.2019

Sehr kurz informierte Facebook diese Woche über sein Brain-Computer-Interface-Projekt, dessen vorläufige Pläne es auf seiner F8-Entwicklerkonferenz im Jahr 2017 vorgestellt hat. In einem in der Zeitschrift Nature Communications veröffentlichten Beitrag beschrieb ein Team von Wissenschaftlern der University of California, San Francisco, unterstützt von Facebook Reality Labs – der in Pittsburgh ansässigen Abteilung von Facebook, die sich der Forschung und Entwicklung im Bereich Augmented Reality und Virtual Reality widmet – ein prototypisches System, das in der Lage ist, die Gehirnaktivität der Studienteilnehmer während ihrer Rede zu lesen und zu dekodieren.

Es ist beeindruckend, egal wie man es wendet : Den Forschern gelang es, ganze, gesprochene Wörter und Sätze in Echtzeit zu erkennen. Die Studienteilnehmer (die sich auf eine Epilepsieoperation vorbereiteten) ließen sich einen Elektrodenfleck auf die Oberfläche ihres Gehirns legen, der eine Technik namens Elektrokortikographie (ECoG) – die direkte Erfassung der mit der Aktivität aus der Großhirnrinde verbundenen elektrischen Potenziale – einsetzte, mit der möglichst umfassende Erkenntnisse gewonnen werden sollen. Eine Reihe von Algorithmen des maschinellen Lernens, die mit phonologischen Sprachmodellen ausgestattet sind, lernten, bestimmte Sprachlaute aus den Daten zu dekodieren und zwischen Fragen und Antworten zu unterscheiden.

Natürlich gibt es viele Vorbehalte. Das System war zum einen sehr invasiv und unterschied nur zwischen zwei Dutzend Standardantworten auf neun Fragen mit 61% Genauigkeit und Fragen mit 75% Genauigkeit. Darüber hinaus blieb es weit hinter dem Echtzeit-Dekodierungsgeschwindigkeitsziel von Facebook von 100 Wörtern pro Minute mit einem Wortschatz von 1.000 Wörtern und einer Wortfehlerquote von weniger als 17% zurück.

Was sagt das über den Zustand der Gehirn-Computer-Schnittstellen aus? Und vielleicht noch wichtiger: Ist das Engagement von Facebook wirklich auf dem neuesten Stand?

Neuralink

Elon Musk’s Neuralink, ein San Francisco Startup, das 2017 mit 158 Millionen Dollar gefördert wurde (darunter mindestens 100 Millionen Dollar von Musk), verfolgt ebenfalls Brain-Machine-Interfaces, die Menschen mit Computern verbinden. Während einer Veranstaltung Anfang dieses Monats, die zeitgleich mit der Veröffentlichung eines Whitepapers stattfand, behauptete Neuralink, dass die von ihm entwickelten Prototypen in der Lage sind, Informationen aus vielen Neuronen auf einmal zu extrahieren, indem sie flexible Drähte verwenden, die von einer “Nähmaschine” in Weichgewebe eingeführt werden.

Elektroden auf diesen Drähten leiten erfasste Impulse an einen Prozessor weiter, der sich auf der Oberfläche des Schädels befindet und in der Lage ist, Informationen von bis zu 1.536 Kanälen zu lesen, was etwa 15 mal besser ist als aktuelle, in Menschen eingebettete Systeme. Es wurde bereits an Mäusen und Primaten getestet, und Neuralink hofft, Humanstudien mit dem so genannten N1 starten zu können, einem Zylinder mit etwa 8 Millimetern Durchmesser und 4 Millimetern Höhe, der 20.000 Proben pro Sekunde mit 10 Bit Auflösung von bis zu 1.024 Elektroden aufnehmen kann. Das entspricht etwa 200 Mbit/s neuronaler Daten für jeden Kanal.

Die Lösung von Neuralink ist in dieser Hinsicht nicht weniger invasiv als die von Facebook; das Team erwartet, dass in naher Zukunft Drähte unter Anleitung eines geschulten Chirurgen in die motorischen Bereiche und den somatischen Sensorbereich des Gehirns eingebettet werden müssen. Und obwohl die neuronalen Lesetechniken und -technologien auf dem neuesten Stand sind, scheint Neuralink auf der Seite der Interpretierbarkeit weniger Fortschritte gemacht zu haben. Eines der Ziele ist es, einem Tetraplegiker zu erlauben, mit 40 Wörtern pro Minute zu tippen, so Musk.

Paradromik und Kernel

Das vor drei Jahren gegründete Start – up Paradromics (derzeitiger Sitz: Austin) entwickelt wie Neuralink aktiv einen implantierbaren Brain Reading Chip mit beträchtlicher Seed-Unterstützung und 18 Millionen Dollar aus dem Neural Engineering System Design Programm des US-Verteidigungsministeriums.

Der firmeneigene Neural Input-Output Bus, kurz NIOB genannt, verfügt über 50.000 modulare Mikrokabel, die mit bis zu 1 Million Neuronen verbunden und stimuliert werden können, von denen aus er bis zu 30 Gbps neuronaler Aktivität aufzeichnen kann. Es befindet sich derzeit in der präklinischen Entwicklung, und es wird erwartet, dass es 2021 oder 2022 mit Humanstudien starten kann und damit den Grundstein für eine Lösung legt, die Schlaganfallopfern hilft, wieder das Sprechen zu lernen.

Wie bei Paradromics konzentriert sich Kernel, das 2016 mit 100 Millionen Dollar Unterstützung durch den Gründer und CEO von Braintree, Bryan Johnson, gestartet wurde, derzeit auf die Entwicklung eines chirurgisch implantierten neuronalen Chips. Aber das Unternehmen behauptet , dass seine Technologie eines Tages “die menschliche Kognition mit Hilfe von KI nachahmen, reparieren und verbessern” wird, und hat kürzlich damit begonnen, nicht-invasive Schnittstellen zu untersuchen.

Es ist nicht so weit hergeholt, wie es klingt – es gab in letzter Zeit Fortschritte in dieser Richtung. In einer kürzlich in der Zeitschrift Nature veröffentlichten Studie trainierten Wissenschaftler einen maschinellen Lernalgorithmus auf Daten, die aus früheren Experimenten aufgezeichnet wurden, um zu bestimmen, wie Bewegungen der Zunge, der Lippen, des Kiefers und des Kehlkopfes Geräusche erzeugen; sie integrierten diesen in einen Decoder, der Gehirnsignale in geschätzte Bewegungen des Vokaltraktes umwandelte; und fütterten sie an eine separate Komponente, die die Bewegungen in synthetische Sprache umwandelte.

BrainGate

Cyberkinetics hat in Zusammenarbeit mit Forschern der Abteilung Neurowissenschaften der Brown University ein Gehirnimplantatsystem – BrainGate – entwickelt, das Menschen helfen soll, die die Kontrolle über ihre Gliedmaßen oder andere Körperfunktionen verloren haben. Es besteht aus einer 100-Elektroden-Mikroelektrodenanordnung, die in das Gehirn implantiert ist und die die elektromagnetische Signatur des Neuronenfeuers erfassen kann, und einem externen Decoder-Peripheriegerät, das mit einer Prothese oder einer Speichervorrichtung verbunden ist.

Die klinischen Studien begannen 2009 unter dem Namen BrainGate2. Und im Mai 2012 veröffentlichten die BrainGate-Forscher eine Studie in Nature, die zeigte, dass zwei Menschen, die durch einen Hirnstammschlag gelähmt waren, einige Jahre zuvor in der Lage waren, Roboterarme für das Greifen und Greifen zu steuern.

Strg-Labore

Das New Yorker Startup Ctrl-labs verfolgt einen etwas anderen, weniger invasiven Ansatz, um neuronale Impulse in digitale Signale zu übersetzen. Die Entwicklerplattform Ctrl-kit nutzt die differentielle Elektromyographie (EMG), um die mentale Absicht in die Tat umzusetzen, insbesondere durch die Messung von Veränderungen im elektrischen Potential, die durch Impulse verursacht werden, die vom Gehirn zu den Handmuskeln wandern. Sechzehn Elektroden überwachen die durch die Muskelfasern von Motoreinheiten verstärkten Motoneuronsignale, aus denen sie Signale messen, und unterscheiden mit Hilfe von KI-Algorithmen zwischen den einzelnen Impulsen jedes Nervs.

Das System arbeitet unabhängig von Muskelbewegungen; die Erzeugung eines Gehirnaktivitätsmusters, das die Technik von Strgl-Labors erkennen kann, erfordert nicht mehr als das Abfeuern eines Neurons auf ein Axon, oder was Neurowissenschaftler Aktionspotenzial nennen. Damit ist es eine Klasse über Wearables, die die Elektroenzephalographie (EEG) verwenden, eine Technik, die die elektrische Aktivität im Gehirn durch Kontakte misst, die gegen die Kopfhaut gedrückt werden. EMG-Geräte beziehen die saubereren, klareren Signale von Motoneuronen und sind daher nur durch die Genauigkeit des maschinellen Lernmodells der Software und die Behaglichkeit der Kontakte zur Haut begrenzt.

Auf der Softwareseite der Gleichung enthält das zugehörige SDK JavaScript- und TypeScript-Toolchains sowie vorgefertigte Demos, die einen Eindruck von den Fähigkeiten der Hardware vermitteln. Bisher hat Ctrl-labs eine virtuelle Tastatur demonstriert, die Fingerbewegungen auf PC-Eingaben abbildet, so dass ein Träger Nachrichten eingeben kann, indem er mit den Fingerspitzen auf eine Tischplatte tippt. Es wird auch von Roboterarmen gezeigt, die auf die Ausgänge des Strg-Kits abgebildet sind und auf Muskelbewegungen reagieren.

Zukünftige Herausforderungen

Hochauflösende Brain-Machine-Interfaces, kurz BCI, sind vorhersehbar kompliziert – sie müssen in der Lage sein, neuronale Aktivität zu lesen, um herauszufinden, welche Gruppen von Neuronen welche Aufgaben erfüllen. Historisch gesehen haben Hardwarebeschränkungen dazu geführt, dass sie mit mehr als einer Region des Gehirns in Berührung kommen oder störendes Narbengewebe produzieren.

Das hat sich mit dem Aufkommen feiner biokompatibler Elektroden geändert, die die Narbenbildung begrenzen und Zellgruppen präzise angreifen können, sowie mit nicht-invasiven Peripheriegeräten wie dem Strg-Kit. Was sich nicht geändert hat, ist ein Mangel an Verständnis für bestimmte neuronale Prozesse.

Selten wird die Aktivität in Gehirnregionen wie dem präfrontalen Lappen und dem Hippocampus isoliert. Stattdessen findet sie in verschiedenen Hirnregionen statt, was das Festhalten erschwert. Dann ist da noch die Frage der Übersetzung neuronaler elektrischer Impulse in maschinenlesbare Informationen; die Forscher müssen noch die Kodierung des Gehirns knacken. Impulse aus dem visuellen Zentrum sind nicht wie bei der Formulierung von Sprache, und es ist manchmal schwierig, die Ursprungspunkte von Signalen zu identifizieren.

Die Herausforderungen haben Facebook, Neuralink, Paradromics, Kernel, Ctrl-labs und andere nicht davon abgehalten, einem Brain-Computer-Interface-Markt hinterherzulaufen, der laut Allied Market Research bis 2020 voraussichtlich 1,46 Milliarden Dollar wert sein wird. Eines ist sicher: Sie haben einen steilen Aufstieg vor sich.

Aufrufe: 56