A onda das ferramentas de inteligência artificial (IA) gerativa começou em novembro do ano passado, quando a OpenAI lançou o já conhecido ChatGPT. A partir desse lançamento, diversas outras empresas passaram a criar seus próprios chatbots espertos. Agora, porém, esses serviços levantam questões sobre a privacidade dos usuários.
Assim como com qualquer outra nova tecnologia, é necessário ter cuidado com as informações que são compartilhadas na plataforma, pois não é possível saber exatamente como elas são usadas. Grandes modelos de IA são treinados com bases de dados gigantes e alguns deles, como o GPT, são aperfeiçoados usando as interações com os próprios usuários.
Dessa forma, é importante ter cuidado e estabelecer barreiras logo que você começar a utilizar ferramentas do tipo para não correr o risco de ter sua segurança afetada. A seguir, confira três dicas para garantir a segurança dos seus dados quando utilizar uma ferramenta de IA gerativa.
Verifique a política de privacidade do serviço
Antes de começar a utilizar uma plataforma de IA, é importante checar os termos e condições da ferramenta. Pode parecer uma tarefa difícil - e até chata -, mas é essencial você saber o que está aceitando ao acessar os serviços. Geralmente, ao usar um aplicativo, estamos dando permissão para a empresa que o criou acessar tudo o que colocamos nele e, às vezes, até coletar informações sobre nós.
Normalmente, a política de privacidade dessas plataformas estão disponíveis no próprio site. A OpenAI, por exemplo, afirma que tudo o que você fala com o ChatGPT pode ser usado para ajudar a melhorar o sistema, mas eles garantem que não usarão informações pessoais para criar perfis ou para fins de marketing.
O Google é outra empresa com política de privacidade semelhante para o Bard. O que você digita para o chatbot pode ser coletado para melhorar seus produtos e serviços, incluindo os anúncios que você vê. Além disso, o Google usa qualquer informação sobre você que puder ser indexada na internet - a companhia fez uma mudança em seus termos de uso para usar de maneira ampla informações sobre as pessoas no treinamento de suas ferramentas.
Não compartilhe informações pessoais
Quando utilizar ferramentas de IA, tudo o que um usuário digita ou cria pode ser usado para treinar e melhorar a tecnologia. Por isso, é importante ter cuidado com as informações que são colocadas.
Evite usar ferramentas que criam versões aprimoradas do seu rosto com IA, a menos que esteja confortável com a possibilidade de outras pessoas usarem essas imagens geradas.
Quando se trata de textos, evite colocar informações pessoais, pois pode haver riscos de vazamento. Mesmo que seja tentador usar a IA para tarefas como escrever e-mails com informações pessoais, é mais seguro contornar isso. Dados como número de documentos, endereços, telefones, e-mails e senhas não devem ser fornecidos. Também evite alimentar a máquina com histórias e situações de caráter privado, que possam gerar situações constrangedoras e perigosas.
Mude as configurações
Depois de concordar com a política de privacidade e ajustar os cuidados sobre o que é compartilhado, a próxima etapa é melhorar as configurações de privacidade e segurança das ferramentas. A maioria das empresas torna esses controles fáceis de encontrar nas plataformas.
No caso do Bard, é possível escolher por quanto tempo os dados ficarão armazenados ou até mesmo apagar manualmente o que não deseja mais compartilhar. A Microsoft é outra empresa que permite controlar o compartilhamento de dados nas configurações de segurança e privacidade.
Para configurar essas informações no ChatGPT, basta acessar a conta no site, ir para as configurações e controles de dados. Nessa aba, é possível decidir se deseja permitir que as conversas sejam usadas para treinar o modelo, além de conseguir excluir conversas específicas que teve com o robô.
*Alice Labate é estagiária sob supervisão do editor Bruno Romani
Os comentários são exclusivos para assinantes do Estadão.