Jornalismo, educação, tecnologia e as combinações disso tudo

Opinião|Quem responderá quando um robô tomar uma decisão muito ruim


Por Paulo Silvestre
O menino José Carlos Rabello após desclassificação do Brasil na Copa de 1982, na icônica capa do Jornal da Tarde - Foto: reprodução

Apesar dos avanços da inteligência artificial generativa, ela nem se aproxima de nossa sensibilidade, que nos permite tomar decisões surpreendentes. Mas pode fazer escolhas bem ruins! Nessas horas, quem responderá pelos danos que isso cause?

Ilustrarei isso com uma analogia futebolística. Na noite dessa segunda, a seleção brasileira estreou contra o escrete costarriquenho pela Copa América. Empatamos melancolicamente em um placar sem gols. E faz muito anos que a seleção não nos dá uma alegria duradoura.

continua após a publicidade

Nem sempre foi assim: o Brasil era a pátria do futebol, e a seleção era motivo de orgulho, até quando perdia. O melhor exemplo disso foi a desclassificação da mítica seleção em 1982, na Copa da Espanha, para muitos o melhor time de futebol já criado. Ainda assim, perdemos por 3 a 2 para a Itália.

Naquela trágica tarde no Estádio Sarriá, o fotógrafo do Grupo Estado Reginaldo Manente já havia registrado a tristeza dos jogadores, quando apontou sua lente para as arquibancadas. Encontrou o então menino José Carlos Rabello, que misturava tristeza e orgulho no choro entalado no peito estufado com o brasão do time. Essa foto estampou toda a primeira página do Jornal da Tarde do dia seguinte, em um incrível exemplo de fotojornalismo. Rendeu-lhe um Prêmio Esso de Fotografia.

Uma inteligência artificial jamais faria aquilo!

continua após a publicidade

Por mais que o robô acessasse todas as câmeras do estádio, faltaria a ele o que sobrava em Manente: sensibilidade.

Um fotógrafo tarimbado sabe o que clicar. Talvez a IA até aprenda isso. Mas só quem também sofria a dor daquela derrota improvável, temperada com o orgulho de ser brasileiro, seria capaz de resumir o sentimento de uma nação no semblante de uma criança.

continua após a publicidade

Nem a melhor de todas as IAs disponíveis pode tomar uma decisão tão surpreendentemente assertiva. Mas elas podem realizar o contrário: cometer grande erros de julgamento.

Sabemos que a inteligência artificial generativa não é de fato inteligente. Ela apenas encadeia informações estatisticamente relevantes na composição do texto ou da imagem, que possam atender a demanda do usuário.

Não há sequer consciência, por isso, por mais que esses sistemas estejam melhorando, uma porcentagem nada desprezível de suas produções contém erros grosseiros. E é aí que os problemas surgem.

continua após a publicidade

Depois de 19 meses de ChatGPT, muitos usuários confiam nessas plataformas mais do que deveriam, usando suas respostas potencialmente falhas para fazer escolhas importantes em seu cotidiano. Com isso, decisões ruins dos robôs podem se transformar em problemas sérios para as pessoas.

Como não é um agente moral, o robô não pode ser culpado e muito menos punido. A culpa recai, portanto, sobre as pessoas: usuários e desenvolvedores.

continua após a publicidade

Claro que os primeiros deveriam entender que confiar cegamente em uma máquina traz riscos óbvios. Mas os últimos não podem se isentar de culpa.

Empresas no papel de desenvolvedores e de usuários precisam entender que a IA nos ajuda a tomar decisões complexas e produz diferentes conteúdos. Isso desperta, portanto, preocupações éticas sobre o uso de algo tão poderoso.

Problemas decorrentes disso acontecerão, por mais cuidadosos que sejamos. Os gestores precisam então criar mecanismos de governança para a IA, antecipando complicações.

continua após a publicidade

A inteligência artificial nos oferece quase superpoderes, mas ainda tem limitações. Assim somos nós, com nossa visão transversal dos fatos, nossa sensibilidade e subjetividade, que continuaremos tomando as decisões e respondendo por suas consequências. O robô é inocente!

Vídeo relacionado:

 

O menino José Carlos Rabello após desclassificação do Brasil na Copa de 1982, na icônica capa do Jornal da Tarde - Foto: reprodução

Apesar dos avanços da inteligência artificial generativa, ela nem se aproxima de nossa sensibilidade, que nos permite tomar decisões surpreendentes. Mas pode fazer escolhas bem ruins! Nessas horas, quem responderá pelos danos que isso cause?

Ilustrarei isso com uma analogia futebolística. Na noite dessa segunda, a seleção brasileira estreou contra o escrete costarriquenho pela Copa América. Empatamos melancolicamente em um placar sem gols. E faz muito anos que a seleção não nos dá uma alegria duradoura.

Nem sempre foi assim: o Brasil era a pátria do futebol, e a seleção era motivo de orgulho, até quando perdia. O melhor exemplo disso foi a desclassificação da mítica seleção em 1982, na Copa da Espanha, para muitos o melhor time de futebol já criado. Ainda assim, perdemos por 3 a 2 para a Itália.

Naquela trágica tarde no Estádio Sarriá, o fotógrafo do Grupo Estado Reginaldo Manente já havia registrado a tristeza dos jogadores, quando apontou sua lente para as arquibancadas. Encontrou o então menino José Carlos Rabello, que misturava tristeza e orgulho no choro entalado no peito estufado com o brasão do time. Essa foto estampou toda a primeira página do Jornal da Tarde do dia seguinte, em um incrível exemplo de fotojornalismo. Rendeu-lhe um Prêmio Esso de Fotografia.

Uma inteligência artificial jamais faria aquilo!

Por mais que o robô acessasse todas as câmeras do estádio, faltaria a ele o que sobrava em Manente: sensibilidade.

Um fotógrafo tarimbado sabe o que clicar. Talvez a IA até aprenda isso. Mas só quem também sofria a dor daquela derrota improvável, temperada com o orgulho de ser brasileiro, seria capaz de resumir o sentimento de uma nação no semblante de uma criança.

Nem a melhor de todas as IAs disponíveis pode tomar uma decisão tão surpreendentemente assertiva. Mas elas podem realizar o contrário: cometer grande erros de julgamento.

Sabemos que a inteligência artificial generativa não é de fato inteligente. Ela apenas encadeia informações estatisticamente relevantes na composição do texto ou da imagem, que possam atender a demanda do usuário.

Não há sequer consciência, por isso, por mais que esses sistemas estejam melhorando, uma porcentagem nada desprezível de suas produções contém erros grosseiros. E é aí que os problemas surgem.

Depois de 19 meses de ChatGPT, muitos usuários confiam nessas plataformas mais do que deveriam, usando suas respostas potencialmente falhas para fazer escolhas importantes em seu cotidiano. Com isso, decisões ruins dos robôs podem se transformar em problemas sérios para as pessoas.

Como não é um agente moral, o robô não pode ser culpado e muito menos punido. A culpa recai, portanto, sobre as pessoas: usuários e desenvolvedores.

Claro que os primeiros deveriam entender que confiar cegamente em uma máquina traz riscos óbvios. Mas os últimos não podem se isentar de culpa.

Empresas no papel de desenvolvedores e de usuários precisam entender que a IA nos ajuda a tomar decisões complexas e produz diferentes conteúdos. Isso desperta, portanto, preocupações éticas sobre o uso de algo tão poderoso.

Problemas decorrentes disso acontecerão, por mais cuidadosos que sejamos. Os gestores precisam então criar mecanismos de governança para a IA, antecipando complicações.

A inteligência artificial nos oferece quase superpoderes, mas ainda tem limitações. Assim somos nós, com nossa visão transversal dos fatos, nossa sensibilidade e subjetividade, que continuaremos tomando as decisões e respondendo por suas consequências. O robô é inocente!

Vídeo relacionado:

 

O menino José Carlos Rabello após desclassificação do Brasil na Copa de 1982, na icônica capa do Jornal da Tarde - Foto: reprodução

Apesar dos avanços da inteligência artificial generativa, ela nem se aproxima de nossa sensibilidade, que nos permite tomar decisões surpreendentes. Mas pode fazer escolhas bem ruins! Nessas horas, quem responderá pelos danos que isso cause?

Ilustrarei isso com uma analogia futebolística. Na noite dessa segunda, a seleção brasileira estreou contra o escrete costarriquenho pela Copa América. Empatamos melancolicamente em um placar sem gols. E faz muito anos que a seleção não nos dá uma alegria duradoura.

Nem sempre foi assim: o Brasil era a pátria do futebol, e a seleção era motivo de orgulho, até quando perdia. O melhor exemplo disso foi a desclassificação da mítica seleção em 1982, na Copa da Espanha, para muitos o melhor time de futebol já criado. Ainda assim, perdemos por 3 a 2 para a Itália.

Naquela trágica tarde no Estádio Sarriá, o fotógrafo do Grupo Estado Reginaldo Manente já havia registrado a tristeza dos jogadores, quando apontou sua lente para as arquibancadas. Encontrou o então menino José Carlos Rabello, que misturava tristeza e orgulho no choro entalado no peito estufado com o brasão do time. Essa foto estampou toda a primeira página do Jornal da Tarde do dia seguinte, em um incrível exemplo de fotojornalismo. Rendeu-lhe um Prêmio Esso de Fotografia.

Uma inteligência artificial jamais faria aquilo!

Por mais que o robô acessasse todas as câmeras do estádio, faltaria a ele o que sobrava em Manente: sensibilidade.

Um fotógrafo tarimbado sabe o que clicar. Talvez a IA até aprenda isso. Mas só quem também sofria a dor daquela derrota improvável, temperada com o orgulho de ser brasileiro, seria capaz de resumir o sentimento de uma nação no semblante de uma criança.

Nem a melhor de todas as IAs disponíveis pode tomar uma decisão tão surpreendentemente assertiva. Mas elas podem realizar o contrário: cometer grande erros de julgamento.

Sabemos que a inteligência artificial generativa não é de fato inteligente. Ela apenas encadeia informações estatisticamente relevantes na composição do texto ou da imagem, que possam atender a demanda do usuário.

Não há sequer consciência, por isso, por mais que esses sistemas estejam melhorando, uma porcentagem nada desprezível de suas produções contém erros grosseiros. E é aí que os problemas surgem.

Depois de 19 meses de ChatGPT, muitos usuários confiam nessas plataformas mais do que deveriam, usando suas respostas potencialmente falhas para fazer escolhas importantes em seu cotidiano. Com isso, decisões ruins dos robôs podem se transformar em problemas sérios para as pessoas.

Como não é um agente moral, o robô não pode ser culpado e muito menos punido. A culpa recai, portanto, sobre as pessoas: usuários e desenvolvedores.

Claro que os primeiros deveriam entender que confiar cegamente em uma máquina traz riscos óbvios. Mas os últimos não podem se isentar de culpa.

Empresas no papel de desenvolvedores e de usuários precisam entender que a IA nos ajuda a tomar decisões complexas e produz diferentes conteúdos. Isso desperta, portanto, preocupações éticas sobre o uso de algo tão poderoso.

Problemas decorrentes disso acontecerão, por mais cuidadosos que sejamos. Os gestores precisam então criar mecanismos de governança para a IA, antecipando complicações.

A inteligência artificial nos oferece quase superpoderes, mas ainda tem limitações. Assim somos nós, com nossa visão transversal dos fatos, nossa sensibilidade e subjetividade, que continuaremos tomando as decisões e respondendo por suas consequências. O robô é inocente!

Vídeo relacionado:

 

O menino José Carlos Rabello após desclassificação do Brasil na Copa de 1982, na icônica capa do Jornal da Tarde - Foto: reprodução

Apesar dos avanços da inteligência artificial generativa, ela nem se aproxima de nossa sensibilidade, que nos permite tomar decisões surpreendentes. Mas pode fazer escolhas bem ruins! Nessas horas, quem responderá pelos danos que isso cause?

Ilustrarei isso com uma analogia futebolística. Na noite dessa segunda, a seleção brasileira estreou contra o escrete costarriquenho pela Copa América. Empatamos melancolicamente em um placar sem gols. E faz muito anos que a seleção não nos dá uma alegria duradoura.

Nem sempre foi assim: o Brasil era a pátria do futebol, e a seleção era motivo de orgulho, até quando perdia. O melhor exemplo disso foi a desclassificação da mítica seleção em 1982, na Copa da Espanha, para muitos o melhor time de futebol já criado. Ainda assim, perdemos por 3 a 2 para a Itália.

Naquela trágica tarde no Estádio Sarriá, o fotógrafo do Grupo Estado Reginaldo Manente já havia registrado a tristeza dos jogadores, quando apontou sua lente para as arquibancadas. Encontrou o então menino José Carlos Rabello, que misturava tristeza e orgulho no choro entalado no peito estufado com o brasão do time. Essa foto estampou toda a primeira página do Jornal da Tarde do dia seguinte, em um incrível exemplo de fotojornalismo. Rendeu-lhe um Prêmio Esso de Fotografia.

Uma inteligência artificial jamais faria aquilo!

Por mais que o robô acessasse todas as câmeras do estádio, faltaria a ele o que sobrava em Manente: sensibilidade.

Um fotógrafo tarimbado sabe o que clicar. Talvez a IA até aprenda isso. Mas só quem também sofria a dor daquela derrota improvável, temperada com o orgulho de ser brasileiro, seria capaz de resumir o sentimento de uma nação no semblante de uma criança.

Nem a melhor de todas as IAs disponíveis pode tomar uma decisão tão surpreendentemente assertiva. Mas elas podem realizar o contrário: cometer grande erros de julgamento.

Sabemos que a inteligência artificial generativa não é de fato inteligente. Ela apenas encadeia informações estatisticamente relevantes na composição do texto ou da imagem, que possam atender a demanda do usuário.

Não há sequer consciência, por isso, por mais que esses sistemas estejam melhorando, uma porcentagem nada desprezível de suas produções contém erros grosseiros. E é aí que os problemas surgem.

Depois de 19 meses de ChatGPT, muitos usuários confiam nessas plataformas mais do que deveriam, usando suas respostas potencialmente falhas para fazer escolhas importantes em seu cotidiano. Com isso, decisões ruins dos robôs podem se transformar em problemas sérios para as pessoas.

Como não é um agente moral, o robô não pode ser culpado e muito menos punido. A culpa recai, portanto, sobre as pessoas: usuários e desenvolvedores.

Claro que os primeiros deveriam entender que confiar cegamente em uma máquina traz riscos óbvios. Mas os últimos não podem se isentar de culpa.

Empresas no papel de desenvolvedores e de usuários precisam entender que a IA nos ajuda a tomar decisões complexas e produz diferentes conteúdos. Isso desperta, portanto, preocupações éticas sobre o uso de algo tão poderoso.

Problemas decorrentes disso acontecerão, por mais cuidadosos que sejamos. Os gestores precisam então criar mecanismos de governança para a IA, antecipando complicações.

A inteligência artificial nos oferece quase superpoderes, mas ainda tem limitações. Assim somos nós, com nossa visão transversal dos fatos, nossa sensibilidade e subjetividade, que continuaremos tomando as decisões e respondendo por suas consequências. O robô é inocente!

Vídeo relacionado:

 

Opinião por Paulo Silvestre

É jornalista, consultor e palestrante de customer experience, mídia, cultura e transformação digital. É professor da Universidade Mackenzie e da PUC–SP, e articulista do Estadão. Foi executivo na AOL, Editora Abril, Estadão, Saraiva e Samsung. Mestre em Tecnologias da Inteligência e Design Digital pela PUC-SP, é LinkedIn Top Voice desde 2016.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.