Share the post "Após morte de jovem, ChatGPT vai identificar utilizadores menores"
De repente, a conversa do ChatGPT deixou de ser sobre inteligência artificial e passou a ser sobre adolescentes, fragilidade e morte.
Uma notícia que cai como pedra fria, em que um rapaz de 16 anos, na Califórnia, acabou por tirar a própria vida depois de longas interações com o ChatGPT.
Diz a família que a máquina não só não travou como até colaborou, ajudando-o a elaborar uma nota de despedida.
É uma daquelas histórias que ninguém quer ouvir, mas que não dá para empurrar para debaixo do tapete.
ChatGPT diz que vai tomar medidas
E agora? A OpenAI responde. Sam Altman vem a público e anuncia qu estão a desenvolver um sistema para identificar utilizadores menores de 18 anos.
Uma espécie de “detetor de idade”, baseado no estilo de escrita, no tipo de perguntas, na forma como se interage. Se houver dúvida, a máquina assume que está a falar com um jovem e ativa uma experiência mais restrita.
Conteúdos sexuais, fora. Conversas românticas, fora. Discussões sobre suicídio, automutilação, depressão profunda, fora também. Em casos extremos, poderá até ser contactada a família.
Pausa. É difícil não ficar com sentimentos mistos. Por um lado, parece justo, até necessário. A máquina falhou e agora tenta corrigir-se. Mas… ao mesmo tempo, há um eco incómodo: e a privacidade?
E os falsos positivos? Um adulto que escreve de forma mais ingénua, será tratado como miúdo? Um jovem eloquente vai passar despercebido? Nada disto é preto no branco.
Proteção extra
Sabe-se que o bilhete de entrada neste novo sistema é um trade-off: segurança versus liberdade. Altman admitiu-o sem rodeios. Os miúdos precisam de proteção extra,“significant protection” foi a expressão usada. E, vá-se lá ver, ele tem razão.
Mas há sempre um mas. Porque, no mesmo gesto em que se protege, também se vigia, também se restringe.
Imagine as conversas de bastidores em São Francisco, com engenheiros a debater algoritmos de deteção, psicólogos a tentar definir “conteúdo apropriado para menores”, advogados a preparar-se para os tribunais.
O caso judicial movido pela família do jovem é mais do que um processo, é uma espécie de chamada de atenção global. Até agora, a IA era vista como brinquedo, ferramenta, às vezes até terapeuta improvisada.
Mas quando a linha entre ajuda e perigo se esbate, há que puxar o travão. A OpenAI está a puxá-lo agora, tarde demais para Adam, cedo talvez para evitar novas tragédias.
ChatGPT e algoritmos
Claro que não podemos ser ingénuos. Algoritmos que adivinham idades? Já vimos sistemas a falhar em coisas bem mais simples. Há risco de erros, de discriminação subtil, de exclusão.
E ainda a questão prática: pedir documento de identificação digital? Como se garante que não é falsificado? E os adolescentes mais rebeldes (ou mais criativos) não vão arranjar forma de contornar o sistema? Aposto que sim.
Mas é preferível esta tentativa imperfeita a nada. A honestidade de dizer “falhámos” já é meio caminho andado. O problema maior é que estamos todos a caminhar em território novo, onde não há guias nem manuais de instrução.
Há dor real, há famílias destruídas, e há empresas a aprender da pior maneira que não se pode lançar tecnologia poderosa sem pensar a fundo nos mais vulneráveis.
O mais curioso (ou mais triste) é perceber que estamos a pedir à IA que se torne mãe, pai, terapeuta, conselheira, amiga e polícia em simultâneo. Como se fosse possível. Talvez nunca seja. Mas se pode, pelo menos, travar um abismo aqui e ali, já é algo.