Os conflitos da indústria de Inteligência Artificial


A governança conturbada da mais icônica empresa de IA alerta para a urgência de um quadro regulatório estabelecido por representantes eleitos e fiscalizado por agências independentes

Por Notas & Informações

O ano de 2023 será lembrado como o “momento Sputnik” da corrida pela Inteligência Artificial (IA). O análogo do satélite soviético é o ChatGPT, com quem dezenas de milhões de pessoas “conversam” todos os dias, e a face humana dessa revolução é o CEO da sua desenvolvedora, a OpenAI, Sam Altman.

Nos últimos dias, o mundo acompanhou atônito a odisseia de Altman. No dia 17, o conselho da OpenAI o defenestrou alegando que ele “não era consistentemente transparente” – sem que a alegação fosse ela mesma consistentemente transparente. No dia 19, a Microsoft, com participação de 49% na empresa, convidou Altman a liderar uma divisão de IA. Mas, após um motim dos funcionários e pressões dos investidores, no dia 21 um novo conselho foi criado e Altman foi reinstalado.

O psicodrama corporativo expôs dilemas profundos no mundo da IA, personificados, como disse a revista The Economist, nos “doomers” e “boomers”. Para os primeiros, o desenvolvimento da IA sem freios e contrapesos amplia os riscos de que ela leve à perdição (doom) da humanidade. Para os segundos, a aceleração desenfreada (boom) rumo às tecnologias mais eficientes gerará naturalmente as mais benéficas. A saga da OpenAI é como um microcosmo desse embate. Ela foi criada em 2015 como um laboratório não lucrativo para desenvolver uma “superinteligência” segura. Mas logo ficou claro que para isso precisaria de investimentos massivos, e uma subsidiária comercial foi criada para monetizar ferramentas de IA.

continua após a publicidade

Essa estrutura híbrida encarna conflitos intrínsecos não só da indústria de IA, como das indústrias de tecnologias digitais e de qualquer outra. O desenvolvimento de produtos depende de investimentos e, quanto maior a perspectiva de lucro, maiores os investimentos. Ganhos privados não são incompatíveis com o bem comum, mas eventualmente podem ser. Assumindo que a “mão invisível” do mercado baste para gerar produtos melhores e mais baratos, ela não garante que servirão ao interesse comum. Por maior que seja a procura e por mais lucrativa que seja a oferta de um produto, isso não significa que ele seja benéfico e deva ser lícito. Aqui entra a mão visível do Estado. Para a maioria dos produtos, essa mão só intervém para garantir direitos elementares do consumidor. Mas, quanto maiores os riscos (por exemplo, na indústria farmacêutica ou aeronáutica), maior é sua atuação.

Os ambientalistas levaram décadas para conscientizar a humanidade dos riscos das emissões desreguladas de carbono. Com a IA é diferente. Muito antes dos rudimentos da computação se materializarem em máquinas, a ficção científica já disseminara pavores apocalípticos no imaginário popular. Ninguém ignora suas ameaças. Neste ano, lideranças públicas e tecnológicas – incluindo Altman – advertiram que “mitigar os riscos da IA deve ser uma prioridade global junto com outros riscos em escala social como pandemias e guerra nuclear”. A questão é como essa mitigação deve ser formalizada em regras, como devem ser aplicadas e quem as aplicará.

Cotejando propostas de entidades públicas e privadas, o instituto Future of Life identificou três áreas de ação para as autoridades: estabelecer registros de experimentos gigantes em IA, mantidos por agências independentes; construir sistemas de licenciamento para fazer com que laboratórios provem que seus sistemas são seguros antes de empregá-los; e tomar medidas para garantir que desenvolvedores respondam legalmente pelos danos de seus produtos. Assim como a cooperação internacional logrou delimitar a clonagem e banir armas biológicas, a comunidade global deveria criar uma agência internacional de auditoria da IA.

continua após a publicidade

Quanto maior a quantidade e a potência dos veículos da indústria automobilística, mais sofisticados devem ser seus freios e mecanismos de segurança, e mais importante é um Estado ativo para desenhar e aplicar regras de tráfego e prover boa infraestrutura. Analogamente, as empresas de IA poderão se mover mais rápido se suas máquinas tiverem freios eficientes para cada usuário e se submeterem a bons regulamentos em prol da coletividade.

O ano de 2023 será lembrado como o “momento Sputnik” da corrida pela Inteligência Artificial (IA). O análogo do satélite soviético é o ChatGPT, com quem dezenas de milhões de pessoas “conversam” todos os dias, e a face humana dessa revolução é o CEO da sua desenvolvedora, a OpenAI, Sam Altman.

Nos últimos dias, o mundo acompanhou atônito a odisseia de Altman. No dia 17, o conselho da OpenAI o defenestrou alegando que ele “não era consistentemente transparente” – sem que a alegação fosse ela mesma consistentemente transparente. No dia 19, a Microsoft, com participação de 49% na empresa, convidou Altman a liderar uma divisão de IA. Mas, após um motim dos funcionários e pressões dos investidores, no dia 21 um novo conselho foi criado e Altman foi reinstalado.

O psicodrama corporativo expôs dilemas profundos no mundo da IA, personificados, como disse a revista The Economist, nos “doomers” e “boomers”. Para os primeiros, o desenvolvimento da IA sem freios e contrapesos amplia os riscos de que ela leve à perdição (doom) da humanidade. Para os segundos, a aceleração desenfreada (boom) rumo às tecnologias mais eficientes gerará naturalmente as mais benéficas. A saga da OpenAI é como um microcosmo desse embate. Ela foi criada em 2015 como um laboratório não lucrativo para desenvolver uma “superinteligência” segura. Mas logo ficou claro que para isso precisaria de investimentos massivos, e uma subsidiária comercial foi criada para monetizar ferramentas de IA.

Essa estrutura híbrida encarna conflitos intrínsecos não só da indústria de IA, como das indústrias de tecnologias digitais e de qualquer outra. O desenvolvimento de produtos depende de investimentos e, quanto maior a perspectiva de lucro, maiores os investimentos. Ganhos privados não são incompatíveis com o bem comum, mas eventualmente podem ser. Assumindo que a “mão invisível” do mercado baste para gerar produtos melhores e mais baratos, ela não garante que servirão ao interesse comum. Por maior que seja a procura e por mais lucrativa que seja a oferta de um produto, isso não significa que ele seja benéfico e deva ser lícito. Aqui entra a mão visível do Estado. Para a maioria dos produtos, essa mão só intervém para garantir direitos elementares do consumidor. Mas, quanto maiores os riscos (por exemplo, na indústria farmacêutica ou aeronáutica), maior é sua atuação.

Os ambientalistas levaram décadas para conscientizar a humanidade dos riscos das emissões desreguladas de carbono. Com a IA é diferente. Muito antes dos rudimentos da computação se materializarem em máquinas, a ficção científica já disseminara pavores apocalípticos no imaginário popular. Ninguém ignora suas ameaças. Neste ano, lideranças públicas e tecnológicas – incluindo Altman – advertiram que “mitigar os riscos da IA deve ser uma prioridade global junto com outros riscos em escala social como pandemias e guerra nuclear”. A questão é como essa mitigação deve ser formalizada em regras, como devem ser aplicadas e quem as aplicará.

Cotejando propostas de entidades públicas e privadas, o instituto Future of Life identificou três áreas de ação para as autoridades: estabelecer registros de experimentos gigantes em IA, mantidos por agências independentes; construir sistemas de licenciamento para fazer com que laboratórios provem que seus sistemas são seguros antes de empregá-los; e tomar medidas para garantir que desenvolvedores respondam legalmente pelos danos de seus produtos. Assim como a cooperação internacional logrou delimitar a clonagem e banir armas biológicas, a comunidade global deveria criar uma agência internacional de auditoria da IA.

Quanto maior a quantidade e a potência dos veículos da indústria automobilística, mais sofisticados devem ser seus freios e mecanismos de segurança, e mais importante é um Estado ativo para desenhar e aplicar regras de tráfego e prover boa infraestrutura. Analogamente, as empresas de IA poderão se mover mais rápido se suas máquinas tiverem freios eficientes para cada usuário e se submeterem a bons regulamentos em prol da coletividade.

O ano de 2023 será lembrado como o “momento Sputnik” da corrida pela Inteligência Artificial (IA). O análogo do satélite soviético é o ChatGPT, com quem dezenas de milhões de pessoas “conversam” todos os dias, e a face humana dessa revolução é o CEO da sua desenvolvedora, a OpenAI, Sam Altman.

Nos últimos dias, o mundo acompanhou atônito a odisseia de Altman. No dia 17, o conselho da OpenAI o defenestrou alegando que ele “não era consistentemente transparente” – sem que a alegação fosse ela mesma consistentemente transparente. No dia 19, a Microsoft, com participação de 49% na empresa, convidou Altman a liderar uma divisão de IA. Mas, após um motim dos funcionários e pressões dos investidores, no dia 21 um novo conselho foi criado e Altman foi reinstalado.

O psicodrama corporativo expôs dilemas profundos no mundo da IA, personificados, como disse a revista The Economist, nos “doomers” e “boomers”. Para os primeiros, o desenvolvimento da IA sem freios e contrapesos amplia os riscos de que ela leve à perdição (doom) da humanidade. Para os segundos, a aceleração desenfreada (boom) rumo às tecnologias mais eficientes gerará naturalmente as mais benéficas. A saga da OpenAI é como um microcosmo desse embate. Ela foi criada em 2015 como um laboratório não lucrativo para desenvolver uma “superinteligência” segura. Mas logo ficou claro que para isso precisaria de investimentos massivos, e uma subsidiária comercial foi criada para monetizar ferramentas de IA.

Essa estrutura híbrida encarna conflitos intrínsecos não só da indústria de IA, como das indústrias de tecnologias digitais e de qualquer outra. O desenvolvimento de produtos depende de investimentos e, quanto maior a perspectiva de lucro, maiores os investimentos. Ganhos privados não são incompatíveis com o bem comum, mas eventualmente podem ser. Assumindo que a “mão invisível” do mercado baste para gerar produtos melhores e mais baratos, ela não garante que servirão ao interesse comum. Por maior que seja a procura e por mais lucrativa que seja a oferta de um produto, isso não significa que ele seja benéfico e deva ser lícito. Aqui entra a mão visível do Estado. Para a maioria dos produtos, essa mão só intervém para garantir direitos elementares do consumidor. Mas, quanto maiores os riscos (por exemplo, na indústria farmacêutica ou aeronáutica), maior é sua atuação.

Os ambientalistas levaram décadas para conscientizar a humanidade dos riscos das emissões desreguladas de carbono. Com a IA é diferente. Muito antes dos rudimentos da computação se materializarem em máquinas, a ficção científica já disseminara pavores apocalípticos no imaginário popular. Ninguém ignora suas ameaças. Neste ano, lideranças públicas e tecnológicas – incluindo Altman – advertiram que “mitigar os riscos da IA deve ser uma prioridade global junto com outros riscos em escala social como pandemias e guerra nuclear”. A questão é como essa mitigação deve ser formalizada em regras, como devem ser aplicadas e quem as aplicará.

Cotejando propostas de entidades públicas e privadas, o instituto Future of Life identificou três áreas de ação para as autoridades: estabelecer registros de experimentos gigantes em IA, mantidos por agências independentes; construir sistemas de licenciamento para fazer com que laboratórios provem que seus sistemas são seguros antes de empregá-los; e tomar medidas para garantir que desenvolvedores respondam legalmente pelos danos de seus produtos. Assim como a cooperação internacional logrou delimitar a clonagem e banir armas biológicas, a comunidade global deveria criar uma agência internacional de auditoria da IA.

Quanto maior a quantidade e a potência dos veículos da indústria automobilística, mais sofisticados devem ser seus freios e mecanismos de segurança, e mais importante é um Estado ativo para desenhar e aplicar regras de tráfego e prover boa infraestrutura. Analogamente, as empresas de IA poderão se mover mais rápido se suas máquinas tiverem freios eficientes para cada usuário e se submeterem a bons regulamentos em prol da coletividade.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.