Na vida, se tomamos uma decisão ruim, respondemos por ela. Agora com o avanço da inteligência artificial, enfrentamos desafios inéditos, porque as máquinas também podem errar feio em seus julgamentos e ações. Mas quem deve ser responsabilizado nesse caso?
A resposta não é trivial. Mas é um problema que se tornará mais comum, à medida que a IA invade o cotidiano, especialmente com seus "agentes".
Eles não são como máquinas ou programas de computador convencionais. Esses últimos podem até parecer tomar decisões, mas fazem apenas aquilo para que forem programados. Já os agentes, graças à IA, decidem de verdade, a partir de dados, de sensores diversos e de outras variáveis do ambiente, escolhendo o que fazer para atingir aquilo para que foram criados, mesmo em imprevistos.
Também se diferenciam das plataformas que popularizaram a IA, como o ChatGPT. Apesar de elas parecerem ser capazes de responder qualquer coisa, dependem de comandos humanos e erram muito, por usarem dados públicos da Internet. Os agentes, por sua vez, tendem a dar respostas melhores no assunto para que foram criados, pois se limitam dados e sensores controlados. Além disso, funcionam com pouca ou nenhuma dependência de humanos.
- Assine gratuitamente minha newsletter sobre IA, experiência do cliente, mídia e transformação digital
- Inscreva-se no meu podcast (escolha a plataforma): Spotify, Deezer, Apple Podcasts ou Soundcloud
Vemos o surgimento exponencial desses sistemas, que trarão grandes resultados às empresas. Mas tanta autonomia também pode causar de prejuízos severos a discriminar ou colocar em risco pessoas. E para isso, basta que sejam mal concebidos nos seus algoritmos ou alimentados com dados ruins.
Quando (e não se) isso acontecer, quem responderá pelo problema? O desenvolvedor? A empresa que implantou o agente? O usuário?
Além disso, como se tem observado em muitas aplicações de IA, os sistemas podem transcender seus objetivos originais por conta própria, de maneiras que nem seus desenvolvedores compreendem.
De maneira sombria (mas possível), é o que se vê em "Ex_Machina" (2015), filme de Alex Garland. Na história, Nathan Bateman (Oscar Isaac), CEO de uma empresa parecida ao Google, convida o programador Caleb Smith (Domhnall Gleeson) para determinar se Ava, um robô inteligente que ele criou, possui consciência. Mas à medida que o experimento avança, Ava passa a manipular Caleb para fugir e não ser desligada, deixando para trás um rastro de morte.
Um dos grandes desafios na atribuição de responsabilidade em IA é a fragmentação de papéis. A criação de um agente envolve pessoas como engenheiros, cientistas de dados, gestores e usuários finais. Quando algo dá errado, pode ser difícil apontar a origem da falha.
Para mitigar os riscos, é fundamental adotar responsabilidades claras em todas as etapas de seu desenvolvimento e uso. O tripé "transparência, explicabilidade e rastreabilidade", ignorado pela maioria das big techs, é uma peça central! Além disso, é necessária auditoria permanente de algoritmos e de dados.
Poucas empresas farão isso espontaneamente, por isso, precisamos de legislações que exijam esses cuidados necessários. Quanto a nós, os usuários, devem existir campanhas amplas de conscientização e educação sobre essa tecnologia.
Essa não é uma visão apocalíptica ou sequer refratária sobre a IA. Pelo contrário, seus benefícios crescerão exponencialmente! Por isso mesmo, precisamos compreender essa tecnologia e termos recursos para usá-la de forma segura e produtiva.
A responsabilidade deve ser compartilhada entre todos, mas também deve haver limites claros para evitar "Avas" no mundo real. Se de um lado, essa tecnologia cada vez mais se assemelha a seus criadores, do outro o que fizermos com ela refletirá diretamente em quem somos.
Vídeo relacionado: