Você gostaria de ter a sua disposição algumas das tecnologias de "Black Mirror", que praticamente dão "superpoderes" a seus usuários, mesmo que isso possa lhes trazer algum risco? Se a reposta for positiva, prepare-se, pois a inteligência artificial pode fazer algo parecido àquilo se tornar realidade em breve, com tudo de bom e de ruim que oferece.
A série britânica, disponível na Netflix, ficou famosa por mostrar uma realidade alternativa ou um futuro próximo com dispositivos tecnológicos incríveis, capazes de alterar profundamente a vida das pessoas. Mas, via de regra, algo dá errado na história, não pela tecnologia em si, mas pela desvirtuação de seu uso por alguns indivíduos.
Os roteiros promovem reflexões importantes sobre as pessoas estarem preparadas para lidar com tanto poder. Com as novidades tecnológicas já lançadas ou prometidas para os próximos meses, os mesmos dilemas éticos começam a invadir nosso cotidiano, especialmente se (ou quando) as coisas saírem dos trilhos. Diante de problemas inusitados (para dizer o mínimo), quem deve ser responsabilizado: os clientes, por usos inadequados dos produtos, ou seus fabricantes, que não criaram mecanismos de segurança para conter isso?
Veja esse artigo em vídeo:
Provavelmente o dispositivo mais icônico de "Black Mirror", que aparece em vários episódios, com diferentes aplicações, é uma espécie de implante ocular capaz de captar tudo que a pessoa vê em sua vida, que fica armazenado em um chip implantado atrás da orelha. Essa memória eterna e detalhada pode ser recuperada a qualquer momento, sendo projetada diretamente no próprio olho ou em uma tela.
Não é difícil imaginar como isso pode ser problemático, especialmente quando outras pessoas têm acesso a memórias alheias. Algumas coisas deveriam ser simplesmente esquecidas ou jamais compartilhadas!
A privacidade se torna um bem cada vez mais valioso em um mundo em que nossas informações pessoais viram dinheiro na mão de empresas que as transformam em dados comercializáveis. Um bom exemplo são equipamentos que vestimos (os chamados "wearables") que captam informações sobre nossa saúde, muitas delas compartilhadas com os fabricantes. Mas para que esse envio é necessário?
- Assine gratuitamente minha newsletter sobre experiência do cliente, mídia cultura e transformação digital
- Inscreva-se no meu podcast (escolha a plataforma): Spotify, Deezer, Apple Podcasts, Google Podcasts ou Soundcloud
Os relógios inteligentes (os "smart watches") são o exemplo mais popular desses equipamentos. Mas uma nova geração de dispositivos melhorados pela inteligência artificial aprendem como nosso corpo funciona e nos oferecem informações personalizadas para uma vida melhor.
É o caso do Whoop 4.0, uma pulseira com diversos sensores biométricos, como batimentos cardíacos, oxigênio no sangue, temperatura e taxa de respiração, que afirma ajudar em atividades físicas e até em como dormimos. Já o Oura Smart Ring oferece algo semelhante, porém "escondido" em um simples anel.
Alguns são mais radicais, como a pulseira Pavlok 3. Ela promete ajudar a desenvolver hábitos mais saudáveis, como dormir melhor e até parar de fumar. Quando o dispositivo detecta algo ruim (como fumar), ele emite uma vibração e, se necessário, dá um choque elétrico na pessoa, para associar desconforto ao mau hábito.
Mas dois outros dispositivos lembram mais "Black Mirror": o Rewind Pendant e o Humane AI Pin. Ainda não são os implantes oculares da série, mas prometem gravar o que acontece a nossa volta e muito mais. Eles pretendem inaugurar a era da "computação invisível", em que não mais dependeremos de telas, nem mesmo as de celulares ou de óculos de realidades virtual ou aumentada.
O Rewind Pendant é um pequeno pingente que grava tudo que o usuário fala ou ouve. A partir daí, é possível dar comandos simples como "resuma a reunião de ontem" ou "o que meu filho me pediu hoje de manhã". Como o sistema identifica a voz de quem está falando, o fabricante afirma que só grava alguém se essa pessoa explicitamente autorizar isso por voz.
Já o Humane AI Pin é um discreto broche que funciona como um assistente virtual que conhece nossos hábitos, grava e até projeta imagens em nossa mão. Comunica-se com o usuário por voz e sua inteligência artificial pode até desaconselhar que se coma algo, porque aquilo contém algum ingrediente a que a pessoa seja intolerante.
"Babaca digital"
Impossível não se lembrar do Google Glass, óculos inteligentes que a empresa lançou em 2013. Ele rodava diferentes aplicativos e as informações eram projetadas em sua lente, que se tornava uma tela para o usuário.
Apesar de cobiçado, acabou retirado do mercado por questões de privacidade. Ele tirava fotos e filmava sem que os outros soubessem. Além disso, fazia reconhecimento facial de interlocutores, que poderia ser usado para coletar informações adicionais. As pessoas que faziam maus usos do produto passaram a ser chamadas de "glassholes", um trocadilho que junta "Glass" a "asshole" (algo como "babaca" em inglês).
Isso nos remete novamente a "Black Mirror". Nenhum desses produtos foi criado para maus usos, mas as pessoas podem fazer o que bem entenderem com eles. E depois que são lançados, fica difícil "colocar o gênio de volta na lâmpada".
Estamos apenas arranhando as possibilidades oferecidas pela inteligência artificial, que ainda revolucionará vidas e negócios. Tanto poder exigiria grandes responsabilidades, mas não podemos esperar isso das pessoas, e os fabricantes tampouco parecem muito preocupados.
Como exemplo, na semana passada, vimos o caso de alunos do 7º ao 9º ano do Colégio Santo Agostinho, um dos mais tradicionais do Rio de Janeiro, usando a inteligência artificial para criar imagens de suas colegas sem roupa. Desenvolvedores desses sistemas proíbem que sejam usados para esse fim, mas é inocência achar que isso será atendido. Tanto que já foram criadas plataformas especificamente para isso.
Quem deve ser responsabilizado por esses "deep nudes": os alunos, os pais, a escola, o fabricante? Não se pode mais acreditar em qualquer imagem, pois ela pode ter sido sintetizada! Isso potencializa outros problemas, como os golpes de "sextorsão", em que pessoas são chantageadas para que suas fotos íntimas não sejam divulgadas. Com a "computação invisível", isso pode se agravar ainda mais!
O sociólogo polonês Zygmunt Bauman (1925 - 2017) era mesmo o filósofo de nosso tempo, com obras como "Modernidade Líquida" (1999), "Amor Líquido" (2004) e "Vida Líquida" (2005). Não viveu para experimentar a IA ou esses dispositivos, mas seu pensamento antecipou como tudo se tornaria descartável e efêmero na vida, nos relacionamentos, na segurança pessoal e coletiva, no consumo e no próprio sentido da existência.
A inteligência artificial está aí e ela é incrível: não dá para deixar de usá-la! Mas precisamos encontrar mecanismos para não cairmos nas armadilhas que nós mesmos criaremos com seu uso indevido.