Opinião|Inteligência artificial: qual o futuro do Direito no marco do ‘big data’?


Precisamos construir maneiras de pensar e articular o mundo em termos que não sejam computáveis, ou, ao menos, permitir que esses termos sejam compreensíveis e auditáveis

Por João Carlos Dalmagro Junior

Hoje, o princípio que norteava a era da informação – de que quanto mais dados, melhor – perdeu terreno. Foi desmobilizado. As novas tecnologias, disponíveis na ponta dos nossos dedos, têm se tornado uma dor de cabeça para o que James Bridle, na obra A Nova Idade das Trevas: a Tecnologia e o Fim do Futuro, chamou de “superestrada da informação”, um “canal de conhecimento que, pela luz cintilante dos cabos de fibra óptica, ilumina o mundo”. Para o escritor londrino, estamos vivendo a nova idade das trevas, em que “aquilo que se pensava para iluminar o mundo, na prática, o escurece”.

A inteligência artificial (IA) é a menina dos olhos da quarta revolução industrial. Por ser preditiva, representa o clímax do pensamento computacional: além de receber (input) e processar quantidades esmagadoras de dados em estado bruto (big data) e delas extrair padrões, a IA é capaz de tomar decisões (output) que emulam o que ocorre nas redes neurais (humanas). Esse processo se dá por meio de algoritmos – regras lógicas que transformam o input em output.

Além dos engenheiros de dados, ninguém sabe ao certo como essas complexas tecnologias funcionam. A opacidade é tamanha que não conseguimos sequer refletir sobre a tecnologia em si, o que não impede a crença de que, carregadas de uma aura mítica de verdade, as categorias algorítmicas possuam conteúdo neutro e isento das paixões humanas.

continua após a publicidade

O Direito não fica alheio a tudo isso. Todos os dias, por exemplo, as investigações criminais compartilham e fazem uso de dados minerados por modelos matemáticos, sem que se tenha conhecimento pleno da modelagem dos dados aplicada. A opacidade do método limita o contraditório e impede que se conheça a “caixa-preta” (black box) das redes neurais.

A interação entre Direito e inteligência artificial protagonizou, nos Estados Unidos, uma decisão inusitada. Recentemente, o juiz LeRoy McCullough, da King County Superior Court de Washington, determinou que fosse excluído de um processo um vídeo aprimorado por meio de IA. O vídeo, apresentado por um homem acusado de atirar em cinco pessoas, matando três, em Seattle, usou um modelo de inteligência artificial que alterou pixels com métodos opacos e não foi objeto de revisão por pares.

Além de inusitada, a decisão de McCullough lança luz sobre um problema que afeta a teoria da prova e a credibilidade das evidências geradas pela inteligência artificial nos tribunais: de que é preciso uma nova gramática para compreender as sinuosidades e os vieses das black boxes, desde o input até o output. Como fazer?

continua após a publicidade

A ausência de respostas satisfatórias não impede que a tecnologia abocanhe mais espaço. De alguma forma, o Direito já foi arrebatado pelo solucionismo algorítmico. Está incrustada a ideia de que qualquer problema se resolve quando se aplica a computação. De todo modo, precisamos, como defende James Bridle – se é que isso ainda seja possível –, construir maneiras de pensar e articular o mundo (e também o Direito, em sua dimensão prática e em seu discurso) em termos que não sejam computáveis, ou, ao menos, permitir que esses termos sejam compreensíveis e auditáveis.

*

ADVOGADO CRIMINALISTA, É MESTRANDO EM CIÊNCIAS CRIMINAIS (PUC-RS)

Hoje, o princípio que norteava a era da informação – de que quanto mais dados, melhor – perdeu terreno. Foi desmobilizado. As novas tecnologias, disponíveis na ponta dos nossos dedos, têm se tornado uma dor de cabeça para o que James Bridle, na obra A Nova Idade das Trevas: a Tecnologia e o Fim do Futuro, chamou de “superestrada da informação”, um “canal de conhecimento que, pela luz cintilante dos cabos de fibra óptica, ilumina o mundo”. Para o escritor londrino, estamos vivendo a nova idade das trevas, em que “aquilo que se pensava para iluminar o mundo, na prática, o escurece”.

A inteligência artificial (IA) é a menina dos olhos da quarta revolução industrial. Por ser preditiva, representa o clímax do pensamento computacional: além de receber (input) e processar quantidades esmagadoras de dados em estado bruto (big data) e delas extrair padrões, a IA é capaz de tomar decisões (output) que emulam o que ocorre nas redes neurais (humanas). Esse processo se dá por meio de algoritmos – regras lógicas que transformam o input em output.

Além dos engenheiros de dados, ninguém sabe ao certo como essas complexas tecnologias funcionam. A opacidade é tamanha que não conseguimos sequer refletir sobre a tecnologia em si, o que não impede a crença de que, carregadas de uma aura mítica de verdade, as categorias algorítmicas possuam conteúdo neutro e isento das paixões humanas.

O Direito não fica alheio a tudo isso. Todos os dias, por exemplo, as investigações criminais compartilham e fazem uso de dados minerados por modelos matemáticos, sem que se tenha conhecimento pleno da modelagem dos dados aplicada. A opacidade do método limita o contraditório e impede que se conheça a “caixa-preta” (black box) das redes neurais.

A interação entre Direito e inteligência artificial protagonizou, nos Estados Unidos, uma decisão inusitada. Recentemente, o juiz LeRoy McCullough, da King County Superior Court de Washington, determinou que fosse excluído de um processo um vídeo aprimorado por meio de IA. O vídeo, apresentado por um homem acusado de atirar em cinco pessoas, matando três, em Seattle, usou um modelo de inteligência artificial que alterou pixels com métodos opacos e não foi objeto de revisão por pares.

Além de inusitada, a decisão de McCullough lança luz sobre um problema que afeta a teoria da prova e a credibilidade das evidências geradas pela inteligência artificial nos tribunais: de que é preciso uma nova gramática para compreender as sinuosidades e os vieses das black boxes, desde o input até o output. Como fazer?

A ausência de respostas satisfatórias não impede que a tecnologia abocanhe mais espaço. De alguma forma, o Direito já foi arrebatado pelo solucionismo algorítmico. Está incrustada a ideia de que qualquer problema se resolve quando se aplica a computação. De todo modo, precisamos, como defende James Bridle – se é que isso ainda seja possível –, construir maneiras de pensar e articular o mundo (e também o Direito, em sua dimensão prática e em seu discurso) em termos que não sejam computáveis, ou, ao menos, permitir que esses termos sejam compreensíveis e auditáveis.

*

ADVOGADO CRIMINALISTA, É MESTRANDO EM CIÊNCIAS CRIMINAIS (PUC-RS)

Hoje, o princípio que norteava a era da informação – de que quanto mais dados, melhor – perdeu terreno. Foi desmobilizado. As novas tecnologias, disponíveis na ponta dos nossos dedos, têm se tornado uma dor de cabeça para o que James Bridle, na obra A Nova Idade das Trevas: a Tecnologia e o Fim do Futuro, chamou de “superestrada da informação”, um “canal de conhecimento que, pela luz cintilante dos cabos de fibra óptica, ilumina o mundo”. Para o escritor londrino, estamos vivendo a nova idade das trevas, em que “aquilo que se pensava para iluminar o mundo, na prática, o escurece”.

A inteligência artificial (IA) é a menina dos olhos da quarta revolução industrial. Por ser preditiva, representa o clímax do pensamento computacional: além de receber (input) e processar quantidades esmagadoras de dados em estado bruto (big data) e delas extrair padrões, a IA é capaz de tomar decisões (output) que emulam o que ocorre nas redes neurais (humanas). Esse processo se dá por meio de algoritmos – regras lógicas que transformam o input em output.

Além dos engenheiros de dados, ninguém sabe ao certo como essas complexas tecnologias funcionam. A opacidade é tamanha que não conseguimos sequer refletir sobre a tecnologia em si, o que não impede a crença de que, carregadas de uma aura mítica de verdade, as categorias algorítmicas possuam conteúdo neutro e isento das paixões humanas.

O Direito não fica alheio a tudo isso. Todos os dias, por exemplo, as investigações criminais compartilham e fazem uso de dados minerados por modelos matemáticos, sem que se tenha conhecimento pleno da modelagem dos dados aplicada. A opacidade do método limita o contraditório e impede que se conheça a “caixa-preta” (black box) das redes neurais.

A interação entre Direito e inteligência artificial protagonizou, nos Estados Unidos, uma decisão inusitada. Recentemente, o juiz LeRoy McCullough, da King County Superior Court de Washington, determinou que fosse excluído de um processo um vídeo aprimorado por meio de IA. O vídeo, apresentado por um homem acusado de atirar em cinco pessoas, matando três, em Seattle, usou um modelo de inteligência artificial que alterou pixels com métodos opacos e não foi objeto de revisão por pares.

Além de inusitada, a decisão de McCullough lança luz sobre um problema que afeta a teoria da prova e a credibilidade das evidências geradas pela inteligência artificial nos tribunais: de que é preciso uma nova gramática para compreender as sinuosidades e os vieses das black boxes, desde o input até o output. Como fazer?

A ausência de respostas satisfatórias não impede que a tecnologia abocanhe mais espaço. De alguma forma, o Direito já foi arrebatado pelo solucionismo algorítmico. Está incrustada a ideia de que qualquer problema se resolve quando se aplica a computação. De todo modo, precisamos, como defende James Bridle – se é que isso ainda seja possível –, construir maneiras de pensar e articular o mundo (e também o Direito, em sua dimensão prática e em seu discurso) em termos que não sejam computáveis, ou, ao menos, permitir que esses termos sejam compreensíveis e auditáveis.

*

ADVOGADO CRIMINALISTA, É MESTRANDO EM CIÊNCIAS CRIMINAIS (PUC-RS)

Hoje, o princípio que norteava a era da informação – de que quanto mais dados, melhor – perdeu terreno. Foi desmobilizado. As novas tecnologias, disponíveis na ponta dos nossos dedos, têm se tornado uma dor de cabeça para o que James Bridle, na obra A Nova Idade das Trevas: a Tecnologia e o Fim do Futuro, chamou de “superestrada da informação”, um “canal de conhecimento que, pela luz cintilante dos cabos de fibra óptica, ilumina o mundo”. Para o escritor londrino, estamos vivendo a nova idade das trevas, em que “aquilo que se pensava para iluminar o mundo, na prática, o escurece”.

A inteligência artificial (IA) é a menina dos olhos da quarta revolução industrial. Por ser preditiva, representa o clímax do pensamento computacional: além de receber (input) e processar quantidades esmagadoras de dados em estado bruto (big data) e delas extrair padrões, a IA é capaz de tomar decisões (output) que emulam o que ocorre nas redes neurais (humanas). Esse processo se dá por meio de algoritmos – regras lógicas que transformam o input em output.

Além dos engenheiros de dados, ninguém sabe ao certo como essas complexas tecnologias funcionam. A opacidade é tamanha que não conseguimos sequer refletir sobre a tecnologia em si, o que não impede a crença de que, carregadas de uma aura mítica de verdade, as categorias algorítmicas possuam conteúdo neutro e isento das paixões humanas.

O Direito não fica alheio a tudo isso. Todos os dias, por exemplo, as investigações criminais compartilham e fazem uso de dados minerados por modelos matemáticos, sem que se tenha conhecimento pleno da modelagem dos dados aplicada. A opacidade do método limita o contraditório e impede que se conheça a “caixa-preta” (black box) das redes neurais.

A interação entre Direito e inteligência artificial protagonizou, nos Estados Unidos, uma decisão inusitada. Recentemente, o juiz LeRoy McCullough, da King County Superior Court de Washington, determinou que fosse excluído de um processo um vídeo aprimorado por meio de IA. O vídeo, apresentado por um homem acusado de atirar em cinco pessoas, matando três, em Seattle, usou um modelo de inteligência artificial que alterou pixels com métodos opacos e não foi objeto de revisão por pares.

Além de inusitada, a decisão de McCullough lança luz sobre um problema que afeta a teoria da prova e a credibilidade das evidências geradas pela inteligência artificial nos tribunais: de que é preciso uma nova gramática para compreender as sinuosidades e os vieses das black boxes, desde o input até o output. Como fazer?

A ausência de respostas satisfatórias não impede que a tecnologia abocanhe mais espaço. De alguma forma, o Direito já foi arrebatado pelo solucionismo algorítmico. Está incrustada a ideia de que qualquer problema se resolve quando se aplica a computação. De todo modo, precisamos, como defende James Bridle – se é que isso ainda seja possível –, construir maneiras de pensar e articular o mundo (e também o Direito, em sua dimensão prática e em seu discurso) em termos que não sejam computáveis, ou, ao menos, permitir que esses termos sejam compreensíveis e auditáveis.

*

ADVOGADO CRIMINALISTA, É MESTRANDO EM CIÊNCIAS CRIMINAIS (PUC-RS)

Opinião por João Carlos Dalmagro Junior

Advogado criminalista, é mestrando em Ciências Criminais (PUC-RS)

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.