BLOG

Sensoren für unsere fünf Sinne

F5 Miniaturansicht
F5
Veröffentlicht am 05. September 2019

Bereits 2015 habe ich untersucht, wie unsere fünf Grundsinne – Sehen, Riechen, Schmecken, Tasten und Hören – mithilfe von Sensoren nachgebildet werden. Wir navigieren durch das Leben mit unseren Sinnen: Sie geben uns eine Perspektive auf unsere Umwelt und helfen uns, die Welt, in der wir leben, zu interpretieren. Aber wir sind auch durch die Sinneswelt eingeschränkt. Wenn die Wahrnehmung eines Sinnes eingeschränkt ist, kann es eine Möglichkeit geben, seine Wirkung nachzuahmen oder zu verstärken (wie wir es mit Hörhilfen tun) oder sich zur Kompensation auf einen anderen Sinn zu verlassen (wie bei der Blindenschrift und der Gebärdensprache).

Heute werden Geräte (und IoT-Technologien) gebaut, die mit den Funktionen der Augen, Ohren, Nase, Zunge und Hände zusammenarbeiten oder diese vollständig ersetzen. Sinnesrezeptoren können durch Mikrochip-Geräte ersetzt werden, die dieselben Funktionen wie diese Rezeptoren erfüllen und an unserem Körper angebracht oder in ihn integriert sind.

Die Technologie im Jahr 2015 war augenöffnend (ha-ha), aber ich wollte untersuchen, wie viele Fortschritte sich in den letzten Jahren gemacht haben.

Sicht: Erinnern Sie sich an Google Glass? Vor ihrer Einführung arbeiteten Ingenieure an Brillen, die mit Autos verbunden werden konnten und auf der Linse Telemetrieanzeigen aufwiesen. Heute gibt es Geräte, die derartige Informationen auf die Windschutzscheibe projizieren oder mithilfe einer in das Glas integrierten Technologie anzeigen. Wir verfügen auch über eine Technologie, mit der Sie durch Wände „sehen“ können.

Weltweit gibt es 285 Millionen sehbehinderte Menschen, darunter 39 Millionen, die völlig blind sind. Sensorbasierte Hilfsgeräte für Blinde waren früher in ihren Fähigkeiten begrenzt und machten den Benutzer normalerweise nur auf das Vorhandensein von Hindernissen aufmerksam. Nun haben Forscher ein tragbares Hilfsgerät entwickelt, das es Menschen ermöglicht, ihre Umgebung wahrzunehmen und sich sicherer zu bewegen. Diese Geräte – derzeit als mit Sonar ausgestattete Armbänder oder Radarmonitore erhältlich – verwenden Frequenzwellen und geben Feedback entweder über Vibrationen oder Audio.

Doch das ist noch nicht alles: Es werden bereits bionische Augen entwickelt und blinde Patienten testen bionische Implantate, die auf einer Gehirn-Computer-Schnittstelle basieren. Diese Geräte könnten Patienten mit bestimmten genetischen Augenerkrankungen einen Teil ihrer Sehkraft zurückgeben. Eine Kamera und eine Reihe von Elektroden, die rund um das Auge und die Netzhautzellen implantiert werden, können visuelle Informationen über den Sehnerv an das Gehirn übertragen und so Lichtmuster im Sichtfeld des Patienten erzeugen. Die Ergebnisse sind nicht perfekt, aber sie geben Menschen mit eingeschränkter oder nachlassender Sehkraft Hoffnung.

Geruch: Von Smell-O-Vision und Smell-O-Rama in den 40er- und 50er-Jahren bis hin zu den kleinen Geräten, die man an sein Mobilgerät anschließt, um einen Duftstoff abzugeben, gibt es schon seit einiger Zeit Gegenstände, die Gerüche erzeugen – ebenso wie Geräte, die Stoffe in der Luft „riechen“ sollen, wie etwa Rauch-, Radon- und Kohlenmonoxidmelder. Forscher haben bereits tragbare Sensoren entwickelt, die Diabetes riechen können, indem sie Aceton im Atem erkennen, und haben herausgefunden, wie man mithilfe eines Sensors den Geruch von Melanomen identifizieren kann . Darüber hinaus möchte Apple das iPhone und die Apple Watch mit Sensoren ausstatten, die einen niedrigen Blutzuckerspiegel anhand des Körpergeruchs feststellen können. Aktuelle elektronische Nasen verfügen über einen effektiveren Geruchssinn als die menschliche Nase. Sie verwenden dazu eine Reihe selektiv überlappender Gassensoren sowie eine Komponente zur Musterneuorganisation. Der Geruch oder Geschmack wird als globaler Fingerabdruck wahrgenommen und erzeugt ein Signalmuster (einen digitalen Wert), das zur Charakterisierung von Gerüchen verwendet wird. Was wäre „Gestank“ hoch N?

Anhörung: Laut der britischen Firma Wifore Consulting wird allein die Hörtechnologie bis 2020 einen 40-Milliarden-Dollar-Markt darstellen. Im Jahr 2018 waren es 5 Milliarden Dollar. Wir verfügen über Warngeräte, Cochlea-Implantate und eine tragbare Weste , die gehörlosen Menschen durch eine Reihe von Vibrationen das Hören erleichtert. Eine Reihe von Sensoren nimmt Geräusche und Vibrationen auf, sodass der Träger Geräusche eher fühlen als hören kann. Die Vibrationen treten genau mit der Frequenz auf, die auch der Ton erzeugt hat. (Haben Sie bei einem Konzert schon einmal neben einem dröhnenden Lautsprecher gestanden und den Klang gespürt? Sie müssen es nicht hören, um den wummernden Bass zu erkennen.)

Wie steht es mit der Kommunikation mit Menschen, die die Gebärdensprache nicht beherrschen? Prototyp -SignAloud- Handschuhe übersetzen die Gesten der amerikanischen Gebärdensprache in gesprochenes Englisch. Das Gerät wurde teilweise kritisiert, weil es Übersetzungsfehler enthielt und weil es die Nuancen der Gebärdensprache nicht erfasste, die dabei helfen, Bedeutung und Absicht zu vermitteln, etwa die sekundären Signale wie Augenbrauenbewegungen, Körperbewegungen und Mundbewegungen des Gebärdenden. Mit einem anderen Handschuh können Benutzer Gesten aufzeichnen und benennen, die Wörtern oder Sätzen entsprechen, wodurch Gesichtszusätze entfallen. Eine andere Version kann Übersetzungen direkt an das Smartphone des Trägers senden, das die Wörter oder Sätze dann aussprechen kann.

Berühren: Bereits 2013 entwickelten Forscher einen flexiblen Sensor, der Temperatur, Druck und Luftfeuchtigkeit gleichzeitig erfassen konnte und damit einen großen Fortschritt bei der Nachahmung der Sensorfunktionen der menschlichen Haut darstellte. An anderer Stelle hat das University of Pittsburg Medical Center einen Roboterarm entwickelt , bei dem der Benutzer die Berührung der Roboterfinger spüren kann.

Und jetzt haben wir einen künstlichen Nerv! Ähnlich den in unserer Haut eingebetteten sensorischen Neuronen erkennt ein biegsames, wie ein Pflaster aussehendes Gerät Berührungen, verarbeitet die Informationen und sendet sie an andere Nerven. Anstatt Nullen und Einsen verwendet dieser Nerv dieselbe Sprache wie ein biologischer Nerv und kann direkt mit dem Körper kommunizieren – sei es das Bein einer Kakerlake oder die verbleibenden Nervenenden eines amputierten Körperteils.

Heutige Prothesen können die Gehirnaktivität eines Benutzers lesen und sich entsprechend bewegen. Stellen Sie sich jedoch das Gegenteil vor: Schaltkreise, die Spannung in elektrische Impulse umwandeln. Die Ausgaben dieses künstlichen Nervs sind elektrische Muster, die der Körper verstehen kann – der „neuronale Code“. Vergessen Sie Computer, es ist Zeit für neuronale Netzwerke!

Schmecken: Das Internet der Lebensmittel wächst. Ich habe über intelligente Essstäbchen geschrieben, die Öle mit unhygienischen Verunreinigungen erkennen können, über eine Gabel, die die Anzahl Ihrer Bissen überwacht und über einen intelligenten Becher, der die Menge und die Kalorien zählt, die Sie trinken.

Der Schwerpunkt der chemosensorischen Forschung liegt auf der Identifizierung der wichtigsten Rezeptoren, die von Geschmackszellen exprimiert werden, und auf dem Verständnis, wie diese Rezeptoren Signale an das Gehirn senden. Beispielsweise arbeiten Forscher daran, besser zu verstehen, wie süße und bittere Substanzen an ihre Zielrezeptoren andocken. Was wir als Geschmack empfinden, ist neben dem Geruch häufig auf die molekulare Zusammensetzung einer Lebensmittelzutat zurückzuführen. IBMs Hypertaste verwendet „elektrochemische Sensoren, die aus Elektrodenpaaren bestehen, die jeweils auf die Anwesenheit einer Molekülkombination mit einem Spannungssignal reagieren … Die kombinierten Spannungssignale aller Elektrodenpaare stellen den Fingerabdruck der Flüssigkeit dar“, heißt es im IBM Research Blog . Auch dieser muss genau wie der menschliche Gaumen trainiert werden! Ein weiteres geschmacksorientiertes System verwendet Sensoren und Elektroden, die die Grundfarbe und den Säuregehalt der Limonade digital auf ein Wasserglas übertragen können, sodass diese wie das Sommergetränk aussieht und schmeckt.

Unabhängig davon erfordern alle diese Technologien eine Anwendung, Dienste und etwas Code, um ordnungsgemäß zu funktionieren. Abgesehen von Science-Fiction: Wer hätte gedacht, dass die Sichtweisen eines Einzelnen so schnell in eine Software integriert werden könnten?