Em 2015, explorei como nossos cinco sentidos primários — visão, olfato, paladar, tato e audição — estavam sendo recriados usando sensores. Nossos sentidos são a forma como navegamos pela vida: eles nos dão uma perspectiva do ambiente ao nosso redor e nos ajudam a interpretar o mundo em que vivemos. Mas também somos limitados pelo mundo sensorial. Se um sentido estiver diminuído, pode haver uma maneira de aproximar ou aumentar seus efeitos (como fazemos com aparelhos auditivos) ou confiar em outro sentido de forma compensatória (como no braille e na linguagem de sinais).
Hoje em dia, estão sendo criados dispositivos (e tecnologias de IoT) que funcionam em conjunto com as capacidades dos olhos, ouvidos, nariz, língua e mãos, ou as substituem completamente. Os receptores sensoriais podem ser substituídos por dispositivos com microchips que desempenham as mesmas funções desses receptores, conectados ou integrados aos nossos corpos.
A tecnologia em 2015 foi reveladora (ha-ha), mas eu queria examinar o quanto as coisas avançaram nos últimos anos.
Visão: Lembra do Google Glass? Antes de seu fim, os engenheiros trabalhavam em óculos que se conectavam a automóveis e forneciam telas de telemetria nas lentes. Hoje, você pode obter um dispositivo que transmite essas informações para o para-brisa ou as exibe usando tecnologia incorporada ao vidro. Também temos tecnologia que permite que você "veja" através das paredes .
Há 285 milhões de pessoas com deficiência visual no mundo; e entre elas, 39 milhões são totalmente cegas. Dispositivos de assistência baseados em sensores para cegos costumavam ter capacidades limitadas e normalmente alertavam o usuário apenas sobre a presença de obstáculos. Agora, pesquisadores desenvolveram um dispositivo de assistência vestível que permite que uma pessoa sinta o ambiente e se mova com mais segurança. Esses dispositivos — atualmente disponíveis como uma pulseira equipada com sonar ou um monitor de radar — usam ondas de frequência e fornecem feedback por meio de vibrações ou áudio.
Há mais, embora olhos biônicos estejam sendo desenvolvidos, e pacientes cegos estejam testando implantes biônicos que dependem de uma interface cérebro-computador. Esses dispositivos podem trazer de volta alguma visão em pacientes com certos distúrbios oculares genéticos. Uma câmera e um conjunto de eletrodos implantados ao redor do olho e das células da retina podem transmitir informações visuais ao longo do nervo óptico até o cérebro, produzindo padrões de luz no campo de visão do paciente. Os resultados não são perfeitos, mas isso dá esperança para aqueles com visão limitada ou em declínio.
Cheiro: Desde o Smell-O-Vision e o Smell-O-Rama, nas décadas de 1940 e 1950, até os pequenos dispositivos que se conectam ao seu dispositivo móvel para emitir um aroma, objetos projetados para criar cheiros já existem há algum tempo, assim como dispositivos projetados para "cheirar" uma substância no ar, como detectores de fumaça, radônio e monóxido de carbono. Pesquisadores já desenvolveram sensores vestíveis que conseguem sentir o cheiro do diabetes detectando acetona no hálito e descobriram como usar um sensor para identificar o odor do melanoma . Além disso, a Apple está procurando adicionar sensores ao iPhone e ao Apple Watch para detectar níveis baixos de açúcar no sangue com base no odor corporal. Os narizes eletrônicos atuais conseguem cheirar com mais eficiência do que os narizes humanos, usando uma série de sensores de gás que se sobrepõem seletivamente, juntamente com um componente de reorganização de padrões. O cheiro ou sabor é percebido como uma impressão digital global e gera um padrão de sinal (um valor digital) que é usado para caracterizar cheiros. O que seria “fedorento” elevado à enésima potência?
Audição: De acordo com a empresa britânica Wifore Consulting , a tecnologia auditiva sozinha representará um mercado de US$ 40 bilhões até 2020. Em 2018, foram US$ 5 bilhões. Temos dispositivos de alerta, implantes cocleares e um colete vestível que ajuda pessoas surdas a ouvir por meio de uma série de vibrações. Um conjunto de sensores capta sons e vibra, permitindo que o usuário sinta os sons em vez de ouvi-los. As vibrações ocorrem na frequência exata em que o som foi produzido. (Você já ficou ao lado de um alto-falante barulhento em um show e sentiu o som? Você não precisa ouvir para reconhecer o som grave.)
E quanto à comunicação com aqueles que não sabem a língua de sinais? O protótipo das luvas SignAloud traduz os gestos da Língua Americana de Sinais para o inglês falado. Houve algumas críticas ao dispositivo por causa de erros de tradução e porque o dispositivo não captou as nuances da linguagem de sinais — como os sinais secundários de movimentos de sobrancelhas, mudanças no corpo do sinalizador e movimentos da boca — que ajudam a transmitir significado e intenção. Com outra luva, os usuários podem gravar e nomear gestos que correspondem a palavras ou frases, eliminando adições faciais; outra versão pode enviar traduções diretamente para o smartphone do usuário, que pode então pronunciar as palavras ou frases.
Tocar: Em 2013, pesquisadores desenvolveram um sensor flexível capaz de detectar temperatura, pressão e umidade simultaneamente, proporcionando um grande salto em direção à imitação das características de detecção da pele humana . Em outro lugar, o Centro Médico da Universidade de Pittsburg projetou um braço robótico que permite ao usuário sentir o toque aplicado aos dedos robóticos.
E agora temos um nervo artificial! Semelhante aos neurônios sensoriais embutidos em nossa pele, um dispositivo flexível, parecido com um Band-Aid, detecta o toque, processa a informação e a envia para outros nervos. Em vez de zeros e uns, esse nervo usa a mesma linguagem de um nervo biológico e pode se comunicar diretamente com o corpo, seja com a perna de uma barata ou com terminações nervosas residuais de um membro amputado.
As próteses atuais podem ler a atividade cerebral do usuário e se mover de acordo, mas imagine o inverso: circuitos que transformam voltagem em pulsos elétricos. As saídas desse nervo artificial são padrões elétricos que o corpo pode entender — o “código neural”. Esqueça os computadores, é hora de usar a inteligência neural!
Gosto: A Internet dos Alimentos está se expandindo. Já escrevi sobre pauzinhos inteligentes que podem detectar óleos contendo níveis insalubres de contaminação, um garfo que monitora quantas mordidas você dá e um copo inteligente que conta a quantidade e as calorias que você bebe.
O campo da pesquisa quimiossensorial se concentra na identificação dos principais receptores expressos pelas células gustativas e na compreensão de como esses receptores enviam sinais ao cérebro. Por exemplo, pesquisadores estão trabalhando para desenvolver uma melhor compreensão de como substâncias doces e amargas se ligam aos seus receptores alvos. O que consideramos sabor geralmente vem da composição molecular de um ingrediente alimentar, juntamente com o cheiro. O Hypertaste da IBM usa “sensores eletroquímicos compostos por pares de eletrodos, cada um respondendo à presença de uma combinação de moléculas por meio de um sinal de voltagem... Os sinais de voltagem combinados de todos os pares de eletrodos representam a impressão digital do líquido”, de acordo com o IBM Research Blog . Ele também precisa ser treinado, assim como o paladar humano! Outro sistema focado no sabor usa sensores e eletrodos que podem transmitir digitalmente a cor básica e a acidez da limonada para um copo de água, fazendo com que ela tenha a aparência e o sabor da bebida favorita do verão.
Não importa o que aconteça, todas essas tecnologias exigem um aplicativo, serviços e algum código para funcionar corretamente. Deixando a ficção científica de lado, quem imaginaria que as perspectivas de um indivíduo seriam incorporadas ao software tão rapidamente?