“Programas semelhantes a humanos abusam da nossa empatia”, afirma professora de Washington.

15
jun

O texto a seguir representa a tradução da opinião de Emily M. Bender, professora de Linguística da Universidade de Washington, cujo texto foi publicado no jornal britânico The Guardian na última terça-feira (14).

O engenheiro do Google Blake Lemoine não estava falando oficialmente pela empresa quando afirmou que o chatbot do Google LaMDA era senciente, mas o erro de Lemoine evidencia os riscos da criação de sistemas de maneiras que façam humanos acreditarem que observam programas com inteligência real e independente. Se acreditarmos que máquinas geradoras de textos são autoconscientes, quais ações podemos tomar com base no texto que elas escrevem? Lemoine foi suspenso da organização após revelar transcrições secretas do programa. Enquanto o Google planeja torná-lo um programa-chave voltado ao consumidor, o fato de um de seus próprios engenheiros ter sido enganado reforça a necessidade de esses sistemas serem transparentes.

O LaMDA é um exemplo de um programa construído para prever prováveis sequências de palavras. Por ser “treinado” com enormes quantidades de texto, ele pode produzir um material aparentemente coerente sobre uma grande variedade de tópicos. Digo “aparentemente coerente” porque a única tarefa do computador é prever, repetidamente, quais grupos de letras virão em seguida. Essas sequências só ganharão significado quando forem lidas por humanos.

Quando interpretamos o discurso de outra pessoa, pode parecer que estamos simplesmente decodificando mensagens. Porém, essa habilidade diz respeito à imaginação do ponto de vista do outro, seguida pela dedução do que ele pretende comunicar através das palavras que utilizou. Aplicando essa mesma abordagem a um texto vindo de uma máquina, imaginamos que uma mente produziu aquelas palavras com alguma intenção comunicativa. Já que o LaMDA consegue processar 1.5 trilhão de palavras, é impossível checar como o programa chega a representar tudo isso. Isso faz parecer que o sistema possui capacidades que não foram programadas, as quais podem ser facilmente interpretadas como evidências de inteligência artificial por alguém que quer acreditar nessa possibilidade. Creio que foi isso que aconteceu com Lemoine, que descobriu quais comandos fariam o LaMDA destacar as sequências de palavras que ele interpreta como sendo sinais de senciência. Por seus comentários, Lemoine foi colocado em licença administrativa pelo Google.

 

A empresa não revelou nenhum detalhe a respeito de que tipo de dados o programa utiliza. Aparentemente, o controle de qualidade é limitado, ou até inexistente. O sistema fabrica respostas a partir desses dados indocumentados, enquanto é considerado autoritário. Já é possível perceber o perigo desse cenário na ferramenta “Featured Snippets” do Google, que produz resumos de respostas de páginas na web com a ajuda de um modelo de linguagem. Foram providenciadas respostas absurdas, ofensivas e perigosas, afirmando que Kannada é a língua mais feia da Índia, que o primeiro povo a chegar nos EUA foram colonos europeus, e que se alguém estiver tendo uma convulsão, deve-se fazer tudo o que o serviço de saúde da Universidade de Utah especificamente aconselha a população a não fazer.

Por isso, devemos exigir transparência aqui, principalmente por se tratar de uma tecnologia que utiliza interfaces relacionadas à humanidade, como a linguagem. Para qualquer sistema automatizado, precisamos saber para qual tarefa foi treinado, quais dados foram usados nesse treinamento, quem escolheu esses dados e com qual propósito. Nas palavras dos pesquisadores de Inteligência Artificial Timnit Gebru e Margaret Mitchell, imitar o comportamento humano dentro do desenvolvimento de softwares de computadores é uma “clara barreira que não deve ser atravessada”. Tratamos interações com coisas que consideramos humanas ou humanoides de forma diferente. Com sistemas como o LaMDA, vemos seus potenciais riscos e a urgente necessidade de desenharmos sistemas de maneiras que não abusem da nossa empatia ou confiança.

Fonte: The Guardian

Traduzido e adaptado por Lucca Caixeta

Link da matéria original: https://www.theguardian.com/commentisfree/2022/jun/14/human-like-programs-abuse-our-empathy-even-google-engineers-arent-immune

Categorias:#Noticia#Tecnologia

Postado por Criar Digital em 15 de junho de 2022

Voltar