Aus dem Gehirn direkt aufs Display – wie weit Sprachprothesen sind | #heiseshow
Wenn es um Projekte geht, mit denen Gedanken direkt in eine Sprach- oder Textausgabe umgewandelt werden sollen, ist die Zeit der großspurigen Ankündigungen offenbar vorbei. Still und leise hat etwa Facebook ein ambitioniertes Vorhaben begraben. Das heißt aber nicht, dass am "Brain-Computer Interface" (BCI) nicht mehr geforscht wird, ganz im Gegenteil. Mit mehr oder weniger invasiven Methoden können Forscher und Forscherinnen Dutzende Wörter oder Buchstaben direkt im Kopf erkennen und unterscheiden. Nicht nur Menschen, die nicht – mehr – sprechen können, können sich darüber bereits begrenzt mitteilen. Vorstellbar wäre auch, dass man mit solch einer Technik künftig in der Öffentlichkeit vertraulich kommunizieren kann. Wir lassen uns die Konzepte erklären.
Was genau ist eine "Brain-Computer Interface" und eine Neurosprachprothese? Welche Ansätze gibt es, um aus Hirnströmen Texte oder akustische Signale zu generieren? Was für Eingriffe sind dafür bei den Probanden nötig? Auf welche Schwierigkeiten stößt man bei der Umsetzung? Wie weit ist die Technik, was sind die Erwartungen? Welche Vorteile hätte eine nutzbare Technik – könnte man wirklich schneller schreiben? Und was hat es mit Facebooks Projekt auf sich – was ist aus der anfänglichen Euphorie geworden?
Darüber und über viele weitere Fragen auch aus dem Publikum sprechen Kristina Beer (@beekbee) und Martin Holland (@fingolas) von heise online live mit c't-Redakteur Arne Grävemeyer.
Alternativ wird der Stream auch auf Twitch.tv/heiseonline gesendet.
=== Anzeige / Sponsorenhinweis ===
Thoughtworks ist eine führende globale Technologieberatung, die Strategie, Design und Softwareentwicklung ganzheitlich verbindet. So unterstützt Thoughtworks Organisationen weltweit auf ihrem Weg, sich zu einem modernen digitalen Unternehmen zu entwickeln.
Infos unter thght.works
=== Anzeige / Sponsorenhinweis Ende ===