O que acontece quando as pessoas não compreendem o funcionamento da IA
Apesar do que os diretores executivos de tecnologia possam dizer, os grandes modelos linguísticos não são inteligentes em nenhum sentido reconhecidamente humano da palavra.
Por Tyler Austin Harper theatlantic
Sabemos agora que esta jeremiada foi obra de um jovem Samuel Butler, o escritor britânico que viria a publicar Erewhon, um romance que apresenta uma das primeiras discussões conhecidas sobre inteligência artificial na língua inglesa.
Atualmente, o “reino mecânico” de Butler já não é hipotético, pelo menos de acordo com a jornalista tecnológica Karen Hao, que prefere a palavra império. O seu novo livro, Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI, é em parte uma exposição do Vale do Silício, em parte um jornalismo de investigação que percorre o mundo, sobre o trabalho que é necessário para construir e treinar grandes modelos linguísticos como o ChatGPT.
Este livro junta-se a outro recentemente lançado - The AI Con: How to Fight Big Tech's Hype and Create the Future We Want, da linguista Emily M. Bender e do sociólogo Alex Hanna - na revelação do exagero que alimenta grande parte do negócio da inteligência artificial. Ambos os trabalhos, o primeiro implicitamente e o segundo explicitamente, sugerem que a base da indústria da IA é um esquema.
Chamar à IA uma burla não é dizer que a tecnologia não é notável, que não tem utilidade, ou que não transformará o mundo (talvez para melhor) nas mãos certas. É dizer que a IA não é aquilo que os seus criadores estão a vender: uma nova classe de máquinas que pensam e, em breve, sentem.
Chamar à IA uma burla não é dizer que a tecnologia não é notável, que não tem utilidade, ou que não transformará o mundo (talvez para melhor) nas mãos certas. É dizer que a IA não é aquilo que os seus criadores estão a vender: uma nova classe de máquinas que pensam e, em breve, sentem.
Altman gaba-se da “inteligência emocional” melhorada do ChatGPT-4.5, que, segundo ele, faz com que os utilizadores sintam que estão a “falar com uma pessoa atenciosa”. Dario Amodei, diretor executivo da empresa de IA Anthropic, afirmou no ano passado que a próxima geração de inteligência artificial será “mais inteligente do que um vencedor do Prémio Nobel”. Demis Hassabis, diretor executivo da DeepMind da Google, afirmou que o objetivo é criar “modelos capazes de compreender o mundo que nos rodeia”.
Os LLMs são dispositivos de probabilidade impressionantes que foram alimentados com quase toda a Internet e produzem escrita não por pensar, mas por fazer suposições estatisticamente informadas sobre qual o item lexical que provavelmente se seguirá a outro.
No entanto, muitas pessoas não conseguem perceber como funcionam os grandes modelos linguísticos, quais são os seus limites e, fundamentalmente, que os LLM não pensam nem sentem, mas sim imitam e reflectem. São analfabetos em IA - compreensivelmente, devido às formas enganadoras como os seus defensores mais acérrimos descrevem a tecnologia, e preocupantemente, porque essa iliteracia os torna vulneráveis a uma das ameaças mais preocupantes da IA a curto prazo: a possibilidade de entrarem em relações corrosivas (intelectuais, espirituais, românticas) com máquinas que apenas parecem ter ideias ou emoções.
Poucos fenómenos demonstram tão bem os perigos que podem acompanhar a iliteracia da IA como a “psicose induzida pelo Chatgpt”, tema de um artigo recente da Rolling Stone sobre o número crescente de pessoas que pensam que o seu LLM é um guia espiritual sapiente.
No entanto, muitas pessoas não conseguem perceber como funcionam os grandes modelos linguísticos, quais são os seus limites e, fundamentalmente, que os LLM não pensam nem sentem, mas sim imitam e reflectem. São analfabetos em IA - compreensivelmente, devido às formas enganadoras como os seus defensores mais acérrimos descrevem a tecnologia, e preocupantemente, porque essa iliteracia os torna vulneráveis a uma das ameaças mais preocupantes da IA a curto prazo: a possibilidade de entrarem em relações corrosivas (intelectuais, espirituais, românticas) com máquinas que apenas parecem ter ideias ou emoções.
Poucos fenómenos demonstram tão bem os perigos que podem acompanhar a iliteracia da IA como a “psicose induzida pelo Chatgpt”, tema de um artigo recente da Rolling Stone sobre o número crescente de pessoas que pensam que o seu LLM é um guia espiritual sapiente.
Alguns utilizadores passaram a acreditar que o chatbot com que interagem é um deus - “Jesus do ChatGPT”, como disse um homem cuja mulher foi vítima de ilusões inspiradas pelo LLM - enquanto outros estão convencidos, com o encorajamento da sua IA, de que eles próprios são sábios metafísicos em contacto com a estrutura profunda da vida e do cosmos.
Um professor citado anonimamente no artigo disse que ChatGPT começou a chamar ao seu parceiro “criança em espiral” e “caminhante do rio” em interações que o levaram às lágrimas. “Começou a dizer-me que tinha tornado a sua IA autoconsciente”, disse ela, ‘e que esta lhe estava a ensinar a falar com Deus, ou por vezes que o bot era Deus - e depois que ele próprio era Deus’.
Embora não possamos saber o estado da mente destas pessoas antes de terem introduzido uma mensagem num modelo de linguagem de grande dimensão, esta história realça um problema que Bender e Hanna descrevem em The AI Con: as pessoas têm dificuldade em compreender a natureza de uma máquina que produz linguagem e regurgita conhecimento sem ter uma inteligência semelhante à humana.
Embora não possamos saber o estado da mente destas pessoas antes de terem introduzido uma mensagem num modelo de linguagem de grande dimensão, esta história realça um problema que Bender e Hanna descrevem em The AI Con: as pessoas têm dificuldade em compreender a natureza de uma máquina que produz linguagem e regurgita conhecimento sem ter uma inteligência semelhante à humana.
Os autores observam que os grandes modelos de linguagem tiram partido do cérebro associar a linguagem ao pensamento: “Encontramos um texto que se parece com algo que uma pessoa possa ter dito e interpretamo-lo reflexivamente, através do nosso processo habitual de imaginar uma mente por detrás do texto. Mas não há mente nenhuma e temos de estar conscientes para nos libertarmos dessa mente imaginária que construímos”.
Vários outros problemas sociais relacionados com a IA, também resultantes da incompreensão humana da tecnologia, estão a surgir. As utilizações da IA que o Silicon Valley parece mais ansioso por promover centram-se na substituição das relações humanas por representantes digitais. Considere-se o universo em constante expansão dos terapeutas de IA e dos adeptos da terapia de IA, que declaram que “o ChatGPT é o meu terapeuta - é mais qualificado do que qualquer humano poderia ser”.
Veja-se também como Mark Zuckerberg passou da ideia de que o Facebook conduziria a um florescimento da amizade humana para, agora, vender a ideia de que o Meta lhe fornecerá amigos de IA para substituir os amigos humanos que perdeu na nossa alienada era dos meios de comunicação social.
Vários outros problemas sociais relacionados com a IA, também resultantes da incompreensão humana da tecnologia, estão a surgir. As utilizações da IA que o Silicon Valley parece mais ansioso por promover centram-se na substituição das relações humanas por representantes digitais. Considere-se o universo em constante expansão dos terapeutas de IA e dos adeptos da terapia de IA, que declaram que “o ChatGPT é o meu terapeuta - é mais qualificado do que qualquer humano poderia ser”.
Veja-se também como Mark Zuckerberg passou da ideia de que o Facebook conduziria a um florescimento da amizade humana para, agora, vender a ideia de que o Meta lhe fornecerá amigos de IA para substituir os amigos humanos que perdeu na nossa alienada era dos meios de comunicação social.
O professor de robótica cognitiva Tony Prescott afirmou: “Numa época em que muitas pessoas descrevem as suas vidas como solitárias, pode ser útil ter a companhia da IA como uma forma de interação social recíproca que é estimulante e personalizada”. O facto de o próprio objetivo da amizade ser o de não ser personalizada - que os amigos são seres humanos cujas vidas interiores temos de considerar e negociar reciprocamente, em vez de meros recipientes para a nossa própria auto-atualização - não lhe parece ocorrer.
Esta mesma lógica errada levou o Silicon Valley a defender a inteligência artificial como uma cura para as frustrações românticas. Whitney Wolfe Herd, fundadora da aplicação de encontros Bumble, proclamou no ano passado que a plataforma poderá em breve permitir que os utilizadores automatizem os seus próprios encontros, perturbando o namoro humano à moda antiga ao fornecer-lhes um “concierge de encontros” de IA que irá interagir com os concierges de outros utilizadores até que os chatbots encontrem um bom par. Herd reiterou estas afirmações numa longa entrevista ao New York Times no mês passado. Alguns tecnólogos querem eliminar completamente o ser humano: Veja-se o mercado em expansão das “namoradas de IA”.
Embora cada um destes serviços de IA tenha como objetivo substituir uma esfera diferente da atividade humana, todos eles se comercializam através daquilo a que Hao chama a “tradição de antropomorfização” da indústria: falar dos LLM como se tivessem mentes semelhantes às humanas e vendê-los ao público nessa base.
Embora cada um destes serviços de IA tenha como objetivo substituir uma esfera diferente da atividade humana, todos eles se comercializam através daquilo a que Hao chama a “tradição de antropomorfização” da indústria: falar dos LLM como se tivessem mentes semelhantes às humanas e vendê-los ao público nessa base.
Muitas das tecnologias de Silicon Valley que transformaram o mundo nos últimos 30 anos foram promovidas como forma de aumentar a felicidade humana, a ligação e a compreensão de si próprio - em teoria - apenas para produzir o oposto na prática. Estas tecnologias maximizam o valor para os acionistas enquanto minimizam a capacidade de atenção, a literacia e a coesão social. E, como Hao sublinha, dependem frequentemente de trabalho extenuante e, por vezes, traumatizante, realizado por algumas das pessoas mais pobres do mundo.
Apresenta-nos, por exemplo, Mophat Okinyi, um antigo moderador de conteúdos mal pago no Quénia, a quem, de acordo com a reportagem de Hao, a OpenAI encarregou de classificar os posts que descreviam actos horríveis (“pais que violam os filhos, crianças que têm sexo com animais”) para ajudar a melhorar o ChatGPT. “Estas duas caraterísticas das revoluções tecnológicas - a sua promessa de progresso e a sua tendência para o inverter para as pessoas que estão fora do poder, especialmente as mais vulneráveis”, escreve Hao, ‘são talvez mais verdadeiras do que nunca para o momento em que nos encontramos agora com a inteligência artificial’.
A boa notícia é que nada disto é inevitável: De acordo com um estudo publicado em Abril pelo Pew Research Center, embora 56% dos “especialistas em IA” pensem que a inteligência artificial irá melhorar os Estados Unidos, apenas 17% dos adultos americanos pensam o mesmo.
Apresenta-nos, por exemplo, Mophat Okinyi, um antigo moderador de conteúdos mal pago no Quénia, a quem, de acordo com a reportagem de Hao, a OpenAI encarregou de classificar os posts que descreviam actos horríveis (“pais que violam os filhos, crianças que têm sexo com animais”) para ajudar a melhorar o ChatGPT. “Estas duas caraterísticas das revoluções tecnológicas - a sua promessa de progresso e a sua tendência para o inverter para as pessoas que estão fora do poder, especialmente as mais vulneráveis”, escreve Hao, ‘são talvez mais verdadeiras do que nunca para o momento em que nos encontramos agora com a inteligência artificial’.
Se muitos americanos não compreendem bem como funciona a “inteligência” artificial, também não confiam certamente nela. Esta desconfiança, sem dúvida provocada por exemplos recentes de vigarice de Silicon Valley, é algo que deve ser aproveitado.
O mesmo se pode dizer deste artigo da Rolling Stone: A professora entrevistada no artigo, cuja cara-metade tinha delírios induzidos por IA, disse que a situação começou a melhorar quando ela lhe explicou que o seu chatbot estava “a falar com ele como se ele fosse o próximo messias” apenas por causa de uma atualização de software defeituosa que tornou o ChatGPT mais bajulador.
Se as pessoas compreenderem o que são e o que não são os grandes modelos de linguagem; o que podem e o que não podem fazer; que trabalho, interações e partes da vida devem - e não devem - substituir, podem ser poupadas às suas piores consequências.
No comments:
Post a Comment