Jornalista, escritor e palestrante. Escreve às quintas

Opinião|Existe liberdade de expressão para inteligência artificial? Leia análise


Novos sistemas levantam debates nada triviais

Por Pedro Doria

No rastro da demissão e recontratação de Sam Altman como CEO da OpenAI, inúmeros debates floresceram. Um deles não tem nada de trivial. É o da liberdade de expressão em programas como o ChatGPT. A resposta para o dilema não vem pronta, não é óbvia e se distribui em duas perguntas essenciais. A primeira é sobre quem decide limites. E, a segunda: quando trabalhamos com a ideia de liberdade de expressão para inteligência artificial, do que exatamente estamos falando?

Há um grupo entre os engenheiros da computação que trabalham com IA que se dedicam ao problema do alinhamento. Em essência é como dar ao computador valores éticos que ele não cruzarár. Alinhar é isto. É ter certeza de que o ChatGPT não ensinará a fazer uma bomba, a preparar um veneno, que não será homofóbico, racista. Explicado assim, tudo parece muito razoável. É mais complexo do que isso.

Neste exato momento, os criadores da IA estão num debate sobre o quanto estas ferramentas compreendem. Uns as veem como modelos probabilísticos capazes de cruzar uma quantidade abissal de informação e dar uma resposta coerente. Não há reflexão. Outros, não. Acham que IAs já são capazes de compreender, ainda que de forma rudimentar, os conceitos com os quais trabalham. Eles próprios, os pais da coisa, não chegam a um acordo.

continua após a publicidade
ChatGPT levanta questões sobre quais são os filtros que devem ser aplicados em IAs Foto: Dado Ruvic/Reuters

Mas quem já conviveu o suficiente com a versão mais recente do ChatGPT sabe que ele é uma ferramenta formidável para atacar problemas duros. Alimente o sistema com relatórios, puxe um assunto da empresa, um dilema com a família. Faça perguntas difíceis. As respostas incitam estalos, fazem conexões nas quais não havíamos pensado. São capazes de complexidade. De profundidade. São diálogos que seguem exigindo de nós uma reação, novas perguntas. A capacidade de refletir sobre o que estamos lendo. A criatividade segue sendo nossa, humana. Mas este interlocutor artificial com o qual estamos só começando a conviver, que está ainda muito no início do seu desenvolvimento, é uma ferramenta de ajudar a pensar diferente de tudo que já tivemos.

Se ela pensa, o debate é novo: os direitos de seres pensantes artificiais. Se não pensa, certamente ajuda a pensar. Portanto estamos falando da liberdade de cada ser humano poder refletir com o auxílio deste interlocutor digital. O alinhamento consiste em colocar filtros que impõem bloqueios aos temas possíveis. Isto quer dizer que alguns têm acesso à ferramenta plena, outros não. As empresas impõem estes limites, que são muito rígidos.

continua após a publicidade

Adultos não são capazes de decidir quando querem ter conversas difíceis? O quanto a informação que pode levar a dano deve ser proibida? O quanto ofensas devem ser filtradas se isto impede também a reflexão sobre assuntos que nos dividem? Estes não são dilemas novos. E empresas privadas com governanças duvidosas não deveriam tomar essas decisões por nós.

No rastro da demissão e recontratação de Sam Altman como CEO da OpenAI, inúmeros debates floresceram. Um deles não tem nada de trivial. É o da liberdade de expressão em programas como o ChatGPT. A resposta para o dilema não vem pronta, não é óbvia e se distribui em duas perguntas essenciais. A primeira é sobre quem decide limites. E, a segunda: quando trabalhamos com a ideia de liberdade de expressão para inteligência artificial, do que exatamente estamos falando?

Há um grupo entre os engenheiros da computação que trabalham com IA que se dedicam ao problema do alinhamento. Em essência é como dar ao computador valores éticos que ele não cruzarár. Alinhar é isto. É ter certeza de que o ChatGPT não ensinará a fazer uma bomba, a preparar um veneno, que não será homofóbico, racista. Explicado assim, tudo parece muito razoável. É mais complexo do que isso.

Neste exato momento, os criadores da IA estão num debate sobre o quanto estas ferramentas compreendem. Uns as veem como modelos probabilísticos capazes de cruzar uma quantidade abissal de informação e dar uma resposta coerente. Não há reflexão. Outros, não. Acham que IAs já são capazes de compreender, ainda que de forma rudimentar, os conceitos com os quais trabalham. Eles próprios, os pais da coisa, não chegam a um acordo.

ChatGPT levanta questões sobre quais são os filtros que devem ser aplicados em IAs Foto: Dado Ruvic/Reuters

Mas quem já conviveu o suficiente com a versão mais recente do ChatGPT sabe que ele é uma ferramenta formidável para atacar problemas duros. Alimente o sistema com relatórios, puxe um assunto da empresa, um dilema com a família. Faça perguntas difíceis. As respostas incitam estalos, fazem conexões nas quais não havíamos pensado. São capazes de complexidade. De profundidade. São diálogos que seguem exigindo de nós uma reação, novas perguntas. A capacidade de refletir sobre o que estamos lendo. A criatividade segue sendo nossa, humana. Mas este interlocutor artificial com o qual estamos só começando a conviver, que está ainda muito no início do seu desenvolvimento, é uma ferramenta de ajudar a pensar diferente de tudo que já tivemos.

Se ela pensa, o debate é novo: os direitos de seres pensantes artificiais. Se não pensa, certamente ajuda a pensar. Portanto estamos falando da liberdade de cada ser humano poder refletir com o auxílio deste interlocutor digital. O alinhamento consiste em colocar filtros que impõem bloqueios aos temas possíveis. Isto quer dizer que alguns têm acesso à ferramenta plena, outros não. As empresas impõem estes limites, que são muito rígidos.

Adultos não são capazes de decidir quando querem ter conversas difíceis? O quanto a informação que pode levar a dano deve ser proibida? O quanto ofensas devem ser filtradas se isto impede também a reflexão sobre assuntos que nos dividem? Estes não são dilemas novos. E empresas privadas com governanças duvidosas não deveriam tomar essas decisões por nós.

No rastro da demissão e recontratação de Sam Altman como CEO da OpenAI, inúmeros debates floresceram. Um deles não tem nada de trivial. É o da liberdade de expressão em programas como o ChatGPT. A resposta para o dilema não vem pronta, não é óbvia e se distribui em duas perguntas essenciais. A primeira é sobre quem decide limites. E, a segunda: quando trabalhamos com a ideia de liberdade de expressão para inteligência artificial, do que exatamente estamos falando?

Há um grupo entre os engenheiros da computação que trabalham com IA que se dedicam ao problema do alinhamento. Em essência é como dar ao computador valores éticos que ele não cruzarár. Alinhar é isto. É ter certeza de que o ChatGPT não ensinará a fazer uma bomba, a preparar um veneno, que não será homofóbico, racista. Explicado assim, tudo parece muito razoável. É mais complexo do que isso.

Neste exato momento, os criadores da IA estão num debate sobre o quanto estas ferramentas compreendem. Uns as veem como modelos probabilísticos capazes de cruzar uma quantidade abissal de informação e dar uma resposta coerente. Não há reflexão. Outros, não. Acham que IAs já são capazes de compreender, ainda que de forma rudimentar, os conceitos com os quais trabalham. Eles próprios, os pais da coisa, não chegam a um acordo.

ChatGPT levanta questões sobre quais são os filtros que devem ser aplicados em IAs Foto: Dado Ruvic/Reuters

Mas quem já conviveu o suficiente com a versão mais recente do ChatGPT sabe que ele é uma ferramenta formidável para atacar problemas duros. Alimente o sistema com relatórios, puxe um assunto da empresa, um dilema com a família. Faça perguntas difíceis. As respostas incitam estalos, fazem conexões nas quais não havíamos pensado. São capazes de complexidade. De profundidade. São diálogos que seguem exigindo de nós uma reação, novas perguntas. A capacidade de refletir sobre o que estamos lendo. A criatividade segue sendo nossa, humana. Mas este interlocutor artificial com o qual estamos só começando a conviver, que está ainda muito no início do seu desenvolvimento, é uma ferramenta de ajudar a pensar diferente de tudo que já tivemos.

Se ela pensa, o debate é novo: os direitos de seres pensantes artificiais. Se não pensa, certamente ajuda a pensar. Portanto estamos falando da liberdade de cada ser humano poder refletir com o auxílio deste interlocutor digital. O alinhamento consiste em colocar filtros que impõem bloqueios aos temas possíveis. Isto quer dizer que alguns têm acesso à ferramenta plena, outros não. As empresas impõem estes limites, que são muito rígidos.

Adultos não são capazes de decidir quando querem ter conversas difíceis? O quanto a informação que pode levar a dano deve ser proibida? O quanto ofensas devem ser filtradas se isto impede também a reflexão sobre assuntos que nos dividem? Estes não são dilemas novos. E empresas privadas com governanças duvidosas não deveriam tomar essas decisões por nós.

No rastro da demissão e recontratação de Sam Altman como CEO da OpenAI, inúmeros debates floresceram. Um deles não tem nada de trivial. É o da liberdade de expressão em programas como o ChatGPT. A resposta para o dilema não vem pronta, não é óbvia e se distribui em duas perguntas essenciais. A primeira é sobre quem decide limites. E, a segunda: quando trabalhamos com a ideia de liberdade de expressão para inteligência artificial, do que exatamente estamos falando?

Há um grupo entre os engenheiros da computação que trabalham com IA que se dedicam ao problema do alinhamento. Em essência é como dar ao computador valores éticos que ele não cruzarár. Alinhar é isto. É ter certeza de que o ChatGPT não ensinará a fazer uma bomba, a preparar um veneno, que não será homofóbico, racista. Explicado assim, tudo parece muito razoável. É mais complexo do que isso.

Neste exato momento, os criadores da IA estão num debate sobre o quanto estas ferramentas compreendem. Uns as veem como modelos probabilísticos capazes de cruzar uma quantidade abissal de informação e dar uma resposta coerente. Não há reflexão. Outros, não. Acham que IAs já são capazes de compreender, ainda que de forma rudimentar, os conceitos com os quais trabalham. Eles próprios, os pais da coisa, não chegam a um acordo.

ChatGPT levanta questões sobre quais são os filtros que devem ser aplicados em IAs Foto: Dado Ruvic/Reuters

Mas quem já conviveu o suficiente com a versão mais recente do ChatGPT sabe que ele é uma ferramenta formidável para atacar problemas duros. Alimente o sistema com relatórios, puxe um assunto da empresa, um dilema com a família. Faça perguntas difíceis. As respostas incitam estalos, fazem conexões nas quais não havíamos pensado. São capazes de complexidade. De profundidade. São diálogos que seguem exigindo de nós uma reação, novas perguntas. A capacidade de refletir sobre o que estamos lendo. A criatividade segue sendo nossa, humana. Mas este interlocutor artificial com o qual estamos só começando a conviver, que está ainda muito no início do seu desenvolvimento, é uma ferramenta de ajudar a pensar diferente de tudo que já tivemos.

Se ela pensa, o debate é novo: os direitos de seres pensantes artificiais. Se não pensa, certamente ajuda a pensar. Portanto estamos falando da liberdade de cada ser humano poder refletir com o auxílio deste interlocutor digital. O alinhamento consiste em colocar filtros que impõem bloqueios aos temas possíveis. Isto quer dizer que alguns têm acesso à ferramenta plena, outros não. As empresas impõem estes limites, que são muito rígidos.

Adultos não são capazes de decidir quando querem ter conversas difíceis? O quanto a informação que pode levar a dano deve ser proibida? O quanto ofensas devem ser filtradas se isto impede também a reflexão sobre assuntos que nos dividem? Estes não são dilemas novos. E empresas privadas com governanças duvidosas não deveriam tomar essas decisões por nós.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.