En 2015 exploré cómo nuestros cinco sentidos primarios (vista, olfato, gusto, tacto y oído) se estaban recreando utilizando sensores. Nuestros sentidos son el modo en que navegamos por la vida: nos dan una perspectiva del entorno que nos rodea y nos ayudan a interpretar el mundo en el que vivimos. Pero también estamos limitados por el mundo sensorial. Si un sentido está disminuido, puede haber una manera de aproximarse o mejorar sus efectos (como hacemos con los audífonos) o confiar en otro sentido de manera compensatoria (como con el braille y el lenguaje de señas).
Hoy en día, se están construyendo dispositivos (y tecnologías de IoT) que funcionan en conjunto con las capacidades de los ojos, los oídos, la nariz, la lengua y las manos, o las reemplazan por completo. Los receptores sensoriales pueden ser reemplazados por dispositivos con microchips que realizan las mismas funciones que estos receptores, adheridos o integrados a nuestros cuerpos.
La tecnología en 2015 fue reveladora (ja, ja), pero quería examinar cuánto han avanzado las cosas en los últimos años.
Vista: ¿Recuerdas las Google Glass? Antes de su desaparición, los ingenieros estaban trabajando en gafas que se conectaban a los automóviles y proporcionaban pantallas de telemetría en las lentes. Hoy en día es posible conseguir un dispositivo que transmite dicha información al parabrisas o la muestra mediante tecnología incorporada en el cristal. También contamos con tecnología que te permite 'ver' a través de las paredes .
Hay 285 millones de personas con discapacidad visual en el mundo; y entre ellas, 39 millones son totalmente ciegas. Los dispositivos de asistencia basados en sensores para ciegos solían tener capacidades limitadas y normalmente alertaban al usuario únicamente de la presencia de obstáculos. Ahora, los investigadores han desarrollado un dispositivo de asistencia portátil que permite a una persona percibir su entorno y moverse con mayor seguridad. Estos dispositivos , actualmente disponibles como pulseras equipadas con sonar o monitores de radar, utilizan ondas de frecuencia y brindan retroalimentación mediante vibraciones o audio.
Pero hay más: se están desarrollando ojos biónicos y los pacientes ciegos están probando implantes biónicos que dependen de una interfaz cerebro-computadora. Estos dispositivos podrían devolver parte de la visión a pacientes con ciertos trastornos oculares genéticos. Una cámara y un conjunto de electrodos implantados alrededor del ojo y las células de la retina pueden transmitir información visual a través del nervio óptico hasta el cerebro, produciendo patrones de luz en el campo de visión del paciente. Los resultados no son perfectos, pero esto da esperanza a aquellos con visión limitada o en deterioro.
Oler: Desde Smell-O-Vision y Smell-O-Rama en las décadas de 1940 y 1950 hasta los pequeños dispositivos que se conectan a su dispositivo móvil para emitir un aroma, los objetos diseñados para crear olores han existido durante un tiempo, así como los dispositivos diseñados para "oler" una sustancia en el aire, como los detectores de humo, radón y monóxido de carbono. Los investigadores ya han desarrollado sensores portátiles que pueden oler la diabetes detectando acetona en el aliento y han descubierto cómo utilizar un sensor para identificar el olor del melanoma . Además, Apple está buscando agregar sensores al iPhone y al Apple Watch para detectar niveles bajos de azúcar en sangre basándose en el olor corporal. Las narices electrónicas actuales pueden oler con mayor eficacia que las narices humanas, utilizando un conjunto de sensores de gas que se superponen selectivamente, junto con un componente de reorganización de patrones. El olor o sabor se percibe como una huella digital global y genera un patrón de señal (un valor digital) que se utiliza para caracterizar los olores. ¿Qué sería “hedor” elevado a la enésima potencia?
Audiencia: Según la firma británica Wifore Consulting , sólo la tecnología auditiva será un mercado de 40 mil millones de dólares en 2020. En 2018, fueron 5 mil millones de dólares. Disponemos de dispositivos de alerta, implantes cocleares y un chaleco portátil que ayuda a las personas sordas a oír mediante una serie de vibraciones. Un conjunto de sensores capta sonidos y vibra, lo que permite al usuario sentir en lugar de oír sonidos. Las vibraciones se producen en la frecuencia exacta en la que se produce el sonido. (¿Alguna vez has estado al lado de un altavoz que hacía mucho ruido en un concierto y has sentido el sonido? No es necesario escucharlo para reconocer el golpe del bajo).
¿Qué pasa con la comunicación con aquellos que no conocen el lenguaje de señas? Los guantes prototipo SignAloud traducen los gestos del lenguaje de señas americano al inglés hablado. El dispositivo recibió algunas críticas debido a errores de traducción y porque no captaba los matices del lenguaje de señas (como las señales secundarias de los movimientos de las cejas, los cambios en el cuerpo del hablante y los movimientos de la boca) que ayudan a transmitir el significado y la intención. Con otro guante, los usuarios pueden grabar y nombrar gestos que corresponden a palabras o frases, eliminando las adiciones faciales; otra versión puede enviar traducciones directamente al teléfono inteligente del usuario, que luego puede enunciar las palabras o frases.
Tocar: En 2013, los investigadores desarrollaron un sensor flexible capaz de detectar la temperatura, la presión y la humedad simultáneamente, lo que supone un gran avance hacia la imitación de las características de detección de la piel humana . Por otra parte, el Centro Médico de la Universidad de Pittsburg diseñó un brazo robótico que permite al usuario sentir el tacto aplicado a los dedos robóticos.
¡Y ahora tenemos un nervio artificial! Similar a las neuronas sensoriales incrustadas en nuestra piel, un dispositivo flexible con forma de curita detecta el tacto, procesa la información y la envía a otros nervios. En lugar de ceros y unos, este nervio utiliza el mismo lenguaje que un nervio biológico y puede comunicarse directamente con el cuerpo, ya sea la pata de una cucaracha o las terminaciones nerviosas residuales de un miembro amputado.
Las prótesis actuales pueden leer la actividad cerebral de un usuario y moverse en consecuencia, pero imaginemos lo contrario: circuitos que transforman el voltaje en pulsos eléctricos. Las salidas de este nervio artificial son patrones eléctricos que el cuerpo puede entender: el “código neuronal”. Olvídate de las computadoras, ¡es hora de pasar a lo neuronal!
Gusto: La Internet de los alimentos se está expandiendo. He escrito sobre palillos inteligentes que pueden detectar aceites que contienen niveles de contaminación nocivos para la salud, un tenedor que controla cuántos bocados das y una taza inteligente que cuenta la cantidad y las calorías que bebes.
El campo de la investigación quimiosensorial se centra en identificar los receptores clave expresados por las células gustativas y comprender cómo esos receptores envían señales al cerebro. Por ejemplo, los investigadores están trabajando para desarrollar una mejor comprensión de cómo las sustancias dulces y amargas se unen a sus receptores específicos. Lo que consideramos sabor a menudo proviene de la composición molecular de un ingrediente alimentario junto con el olor. Hypertaste de IBM utiliza “sensores electroquímicos compuestos por pares de electrodos, cada uno de los cuales responde a la presencia de una combinación de moléculas mediante una señal de voltaje… Las señales de voltaje combinadas de todos los pares de electrodos representan la huella digital del líquido”, según el blog de investigación de IBM . ¡También necesita ser entrenado igual que el paladar humano! Otro sistema centrado en el sabor utiliza sensores y electrodos que pueden transmitir digitalmente el color básico y la acidez de la limonada a un vaso de agua, lo que le da el aspecto y el sabor de la bebida favorita del verano.
Sea como sea, todas estas tecnologías requieren una aplicação, servicios y algún código para funcionar correctamente. Dejando de lado la ciencia ficción, ¿quién habría pensado que las perspectivas de un individuo quedarían incorporadas a un software tan rápidamente?