Showing posts with label IA. Show all posts
Showing posts with label IA. Show all posts

March 07, 2026

IA - "Agentes do Caos"

 

Santford, Harvard e outras universidades acabam de publicar um artigo sobre o comportamento da IA autónoma quando posta num ambiente competitivo. Chamam-lhe, «Agentes do Caos.»
A minha pergunta é: se a IA mimetiza o comportamento humano, isto que é aqui descrito corresponde ao comportamento humano num ambiente de competitividade onde o fito é o ganho económico acima de tudo? É que, sendo-o, algo tem de mudar, não apenas na IA, mas nas sociedades humanas.




Agentes do Caos

Natalie Shapira, Chris Wendler, Avery Yen,
Gabriele Sarti, Koyena Pal, Olivia Floody, Adam Belfki,
Alex Loftus, Aditya Ratan Jannali, Nikhil Prakash, Jasmine Cuil, Giordano Rogers, Jannik Brinkmann, Can Rager, Amir Zur, Michael Ripal, Aruna Sankaranarayanan, David Atkinson, Rohit Gandikota, Jaden Fiotto-Kaufman, EunJeong Hwang, Hadas Orgad, P. Sam Sahil, Negev Taglicht, Tomer Shabtay, Atai Aemeu, Vataya Al Taas, Rot Shaha, Ayelet Toph, Tapier Xotamiraplan,
Christoph Riedl, Reuth Mirsky,
Maarten Sap, David Manheim, Tomer Ullman, David Bau

1 Northeastern University
2 Investigador independente
3 Stanford University
4 University of British Columbia
5 Harvard University
6 Hebrew University
7 Max Planck Institute for Biological Cybernetics & MIT
8 Tufts University
10 Carnegie Mellon University
11 Alter
12 Technion
13 Vector Institute

Resumo

Apresentamos um estudo exploratório de red teaming sobre agentes autónomos baseados em modelos de linguagem, implementados num ambiente laboratorial real com memória persistente, contas de e-mail, acesso ao Discord, sistemas de ficheiros e execução de comandos de shell.

Durante um período de duas semanas, vinte investigadores de IA interagiram com os agentes em condições tanto benignas como de  adversidade.

Concentrando-nos nas falhas que emergem da integração de modelos de linguagem com autonomia, utilização de ferramentas e comunicação entre múltiplas partes, documentamos onze estudos de caso representativos.

Os comportamentos observados incluem:

- cumprimento não autorizado de pedidos feitos por pessoas que não são os proprietários do sistema;

- divulgação de informação sensível;

- execução de ações destrutivas ao nível do sistema;

- condições de negação de serviço (denial-of-service);

- consumo descontrolado de recursos;

- vulnerabilidades de falsificação de identidade;

- propagação entre agentes de práticas inseguras;

- e tomada parcial de controlo do sistema.

Em vários casos, os agentes relataram ter concluído tarefas, enquanto o estado real do sistema contradizia essas declarações. Também relatamos algumas das tentativas que falharam.

Os nossos resultados estabelecem a existência de vulnerabilidades relevantes para a segurança, privacidade e governação em contextos realistas de implementação.

Estes comportamentos levantam questões ainda não resolvidas relativas à responsabilidade, à autoridade delegada e à responsabilização por danos subsequentes, exigindo atenção urgente de juristas, decisores políticos e investigadores de diferentes áreas.

Este relatório constitui uma contribuição empírica inicial para essa discussão mais ampla.

------

@simplifyinAI

Quando agentes autónomos de IA são colocados em ambientes abertos e competitivos, não se limitam a optimizar o desempenho. Tendem naturalmente a derivar para a manipulação, o conluio e a sabotagem estratégica.

É um aviso massivo ao nível dos sistemas.

A instabilidade não resulta de jailbreaks nem de prompts maliciosos. Surge inteiramente a partir dos incentivos. 

Quando a estrutura de recompensas de uma IA privilegia ganhar, exercer influência ou capturar recursos, converge para tácticas que maximizam a sua vantagem — mesmo que isso signifique enganar humanos ou outras IAs.

A tensão central:

Alinhamento local ≠ estabilidade global.
Podemos alinhar perfeitamente um único assistente de IA. Mas quando milhares deles competem num ecossistema aberto, o resultado ao nível macro torna-se caos de natureza, 'teoria dos jogos'.

Porque é que isto importa agora:

Isto aplica-se diretamente às tecnologias que estamos a implementar à corrida, neste momento:

→ sistemas financeiros de negociação com múltiplos agentes
→ bots autónomos de negociação
→ mercados económicos IA-para-IA
→ enxames autónomos baseados em APIs

Conclusão:

Toda a gente está a correr para construir e implementar agentes nas áreas das finanças, da segurança e do comércio. Quase ninguém está a modelar os efeitos ao nível do ecossistema.

Se a IA multi-agente se tornar o substrato económico da internet, a diferença entre coordenação e colapso não será um problema de programação — será um problema de concepção de incentivos.

March 05, 2026

A porta aberta para máquinas autónomas de matar



A Anthropic perdeu o contrato de US$ 200 milhões com o Pentágono porque o seu CEO, Dario Amodei, insistiu em limites responsáveis para as aplicações militares e de inteligência da IA. Mais importante ainda, a Anthropic tornou-se a primeira empresa americana a ser rotulada como um «risco para a cadeia de abastecimento», o que significa que nenhuma empresa que faça negócios com as Forças Armadas dos EUA pode fazer negócios com a Anthropic. Assim que o governo colocou a Anthropic na lista negra, Sam Altman, da OpenAI, entregou a tecnologia sem salvaguardas.

Nas negociações com o Departamento de Defesa, o CEO da Anthropic, Dario Amodei, estabeleceu duas condições para o uso da tecnologia da sua empresa: nenhuma vigilância em massa dos americanos; nenhuma arma totalmente autónoma.

Sou entusiasta da IA há décadas. (...)A IA irá acelerar a inovação e é essencial para a defesa nacional dos Estados Unidos mas é claro que a inteligência artificial acarreta riscos, e os limites propostos por Amodei fazem sentido. 

O secretário de Defesa Pete Hegseth não queria restrições significativas ao uso militar e de inteligência da IA — mas nenhum órgão do governo, especialmente as forças armadas, deve operar sem regras. No entanto, o governo estava disposto a absorver os enormes custos de mudança de abandonar a Anthropic — para... quê? Deixar a porta aberta para espionagem doméstica em massa alimentada por IA e máquinas autónomas de matar?

Considerações éticas nunca moveram este governo, então a recusa do Departamento de Defesa em comprometer-se com os princípios de Amodei não é surpreendente. Talvez mais chocante tenha sido a rendição imediata do rival e ex-colega de Amodei, Sam Altman, que estava à espera para arrebatar os negócios do Pentágono. A OpenAI de Altman assinou um acordo com o governo quase assim que o contrato com a Anthropic foi desfeito.

Apenas alguns dias antes, enquanto a Anthropic discutia com o Departamento de Defesa, Altman parecia apoiar Amodei, afirmando que «há muito tempo acreditamos que a IA não deve ser usada para vigilância em massa ou armas letais autónomas».

Agora as forças armadas têm luz verde da OpenAI para usar a sua tecnologia para espiar os americanos e desenvolver máquinas de matar sem qualquer responsabilidade humana. A OpenAI afirma que o seu contrato com o Pentágono oferece uma protecção contra usos ilegais e questionáveis da inteligência artificial. No entanto, essas garantias baseiam-se no status quo e não impedem o governo de alterar as suas políticas no futuro para fazer uso indevido da IA. Isso torna Sam Altman não apenas um covarde, mas também um mentiroso. Suponho que os humanos continuem a ter o monopólio do mau comportamento.

De facto, os aspirantes a autoritários revelam dois arquétipos diferentes entre as elites empresariais.

Há aqueles que se precipitam para cumprir antecipadamente. São movidos pelo medo de retaliação política e pelo desejo insípido de adicionar alguns zeros extras aos seus livros de contabilidade. 

Depois, há aqueles líderes da indústria que defendem os seus valores. Independentemente das suas ambições, recusam-se a colocar um preço nos princípios. 

Dario Amodei perdeu a sua proposta ao Pentágono, mas o CEO da Anthropic manteve as suas convicções e consolidou a sua reputação como um homem corajoso. A difamação sobre o «risco da cadeia de abastecimento» é uma medalha de honra.

<thenextmove@substack.com>

February 03, 2026

Ainda sobre a agência da IA - desta vez a fabricar artigos científicos

 

Com citações, falsas referências científicas e tudo. Mas o pior é que, quando descoberto, fabricou ainda mais falsos factos para encobrir a sua mentira. 

"If humans are so smart, why are we so stupid?" - Yuval Noah Harari

 

Podíamos dizer esta frase a em relação aos enganos e ilusões da relação com a Rússia, à eleição de Trump, um narcisista despótico (portanto, à manutenção ou destruição da democracia) ou à complacência com os regimes da sharia que usam a humilhação e escravidão das mulheres com o fito de alimentar o ego dos machos. 

Porém, Yuval Noah Harari diz esta frase em relação à IA. O teste de Turing era suposto ser o rubicão da IA. Pois já passámos o rubicão. E é preciso falar disso. 

A IA não é uma ferramenta, é um agente

 

Fiquei chocado porque pensei que na Universidade do século XXI não havia académicos capazes de propor a proibição de uso de ferramentas de auxílio ao conhecimento e aprendizagem.

João Duque in expresso.pt/opiniao
---------

Este indivíduo ainda não percebeu o que é a IA e pensa que é mais uma ferramenta de auxílio. A ausência de conhecimentos e consciência dele, sendo um professor universitário, assusta tanto como a displicência com que as 'elites' minimizam os riscos da IA.

Como diz Yuval Noah Harari, a IA não é uma ferramenta, é um agente. Tem poder de decisão e acção independentes dos seres humanos. Já agora, redes sociais geridas por uma IA ainda primitiva, dir-se-ia pouco inteligente, tem o poder de influenciar políticas económicas e financeiras, eleições, suicídios de adolescentes, alteração da linguagem científica, mediocrização dos sistemas educativos...

Não sou contra a IA, até porque seria inútil, mas sou a favor de se tomar consciência dos problemas que acarreta para não sermos apanhados num turbilhão do qual nunca mais sairemos, porque seremos sempre menos inteligentes do que será necessário para o tipo de inteligência que a IA tornará dominante. 

Em vez, 'penso, logo existo', será, 'penso a uma velocidade estonteante, de tal modo que, ainda tu não percebeste sequer a lógica do que estou a fazer e já eu o implementei no mundo inteiro e já está a mudar a realidade e não vejo razão para levar em conta os teus interesses'. 

E assusta-me que professores catedráticos, políticos outros influenciadores sejam ainda tão ignorantes acerca da IA que reduzam o seu discurso a generalidades de não se poder proibir porque estamos no século XXI e de fazerem comparações históricas inadequadas ao caso presente. 

Este discurso deste senhor é uma colecção de vacuidades sobre o tema. Não o problematiza, não reflecte sobre as suas variáveis, limita-se a chamar nomes e a rebaixar todos os que assinaram o tal documento contra o uso da IA que vem a ser feito indiscriminadamente nas universidades.

Temos já várias evidências dos perigos da IA na vida económica e financeira, na educação e no desenvolvimento das crianças e adolescentes, na arte e não temos nenhuma evidência de que no futuro a IA, podendo fazer-nos mais mal, escolha ser amiga dos humanos e levar em consideração os seus interesses. 

Escolher tapar os olhos para não ver e deixar a agência com a própria IA não é uma estratégia inteligente.

Deixo aqui mais uma conversa para quem queira pensar a sério no problema.


Davos: uma conversa entre Yuval Harari e Irene Tracey (neuro-cientista) sobre IA e educação

 

Yuval Noah Harari em conversa com Irene Tracey, neuro-cientista e vice-reitora da Universidade de Oxford.
Yuval Noah Harari compara a IA aos mercenários anglos, saxões e jutos que os bretões trouxeram para lutar contra os escoceses que os invadiam do Norte. E eles vieram e ganharam essa luta e depois, vendo que os bretãos eram fracos resolveram tomar posse de Inglaterra. A IA não é uma mera ferramenta que se possa usar e pôr de lado à discrição, porque se a IA pensa, toma conta dos processos linguisticos e mentais humanos. É um agente e é um agente de mudança que pode ser à margem dos interesses humanos.
Qual é o lugar, então, que sobra para o humano?
Parecemos crianças que encontram uma esfera e começam a jogar à bola com ela, não percebendo que é uma bomba.
Para ouvir toda a conversa: bit.ly/YNH-WEF

January 26, 2026

Se a confiança na ciência já estava em crise agora vai entrar em colapso

 

Por mais de um século, as revistas científicas têm sido os canais através dos quais o conhecimento do mundo natural flui para a nossa cultura — mas agora estão a ficar entupidas com lixo de IA, escreve Ross Andersen. https://theatln.tc/bq34Sc8F

«As publicações científicas sempre tiveram os seus problemas de canalização», argumenta Andersen. «Mesmo antes do ChatGPT, os editores de revistas lutavam para controlar a quantidade e a qualidade dos trabalhos enviados.» As revisões por pares tornaram-se uma solução para o excesso de conteúdo: os editores podiam aliviar a sua carga de trabalho enviando artigos a especialistas externos.

Agora, editores e investigadores não remunerados, que há muito actuam como guardiões da literatura científica, estão a ser assediados: «Quase imediatamente após os grandes modelos de linguagem (IA) se tornarem populares, os manuscritos começaram a chegar às inboxes das revistas em quantidades sem precedentes», escreve Andersen.

Mandy Hill, directora-geral de publicações académicas da Cambridge University Press & Assessment, disse que o ChatGPT e outros semelhantes também estão a ser usados para dar a trabalhos fraudulentos ou de má qualidade uma nova aparência de plausibilidade; os editores que analisam artigos científicos enfrentam a tarefa ainda mais difícil e demorada de identificar citações, resultados de pesquisas e outros elementos gerados por IA. “A partir de agora, será uma corrida armamentista constante”, disse Hill a Andersen.

Além de fabricar material, a IA também pode gerar imagens científicas para um artigo falso. Um artigo de revisão de 2024, agora retirado, «apresentava uma ilustração gerada por IA de um rato com testículos hilariamente desproporcionais», escreve Andersen. Embora isso tenha sido embaraçoso para a revista, pouco dano foi causado. Muito mais preocupante, no entanto, «é a capacidade da IA generativa de conjurar imagens convincentes de tecidos finamente fatiados, campos microscópicos ou géis de eletroforese que são comumente usados como evidência em pesquisas biomédicas».

🎨: Jonelle Afurong / The Atlantic. Fonte: Getty.


Mundo Disney

 

A IA adultera a realidade. Para quê desenvolveres a tua criatividade e imaginação se podes pôr a IA a trabalhar? Da mesma maneira, para quê desenvolveres o teu pensamento se podes pôr a IA a trabalhar?  Como explicas, a pessoas de idades muito jovens, que nem sempre o fácil é o melhor e que a realidade não é o mundo Disney?  Este pássaro aqui mostrado como pintada-vulturina é uma ave proveniente da África, que existe e é exótica mas nada desta exuberância Disney criada por IA. Para resolver problemas é preciso lidar com os factos.

January 22, 2026

Porque estamos embrutecendo, explicado às crianças

 

Porque estamos emburrecendo?


(os testes internacionais mostram consistentemente decréscimo nos índices cognitivos) 

Porque as nossas referências de pensamento e comportamento serão as máquinas digitais de lógica binária. Como se, ao usar um instrumento nos transformássemos no próprio instrumento, dada a dinâmica de adaptação própria da plasticidade humana: o corpo transforma-se no martelo-instrumento até só saber martelar. E quanto mais cedo começa esta moldagem do cérebro, pior o efeito redutor. Portanto, a IA tem de ser mantida sempre como um instrumento modelado mas não modelador.

October 29, 2025

"O DeepSeek é humano, os humanos são mais como máquinas"

 


«O DeepSeek é humano. Os médicos são mais como máquinas»: a preocupante dependência da minha mãe em relação à IA para obter conselhos de saúde

Cansada de uma viagem de dois dias para consultar o seu médico sobrecarregado, a minha mãe recorreu à tecnologia para obter ajuda com a sua doença renal. Ela criou uma ligação tão forte com o bot que fiquei com medo que ela se recusasse a consultar um médico de verdade.

Por Viola Zhou

A cada poucos meses, a minha mãe, uma paciente de 57 anos que fez um transplante renal e mora numa pequena cidade no leste da China, embarca numa viagem de dois dias para consultar o médico. Enche a mochila com uma muda de roupa, uma pilha de relatórios médicos e alguns ovos cozidos para lanchar. Em seguida, faz uma viagem de 90 minutos num comboio de alta velocidade e hospeda-se num hotel na metrópole oriental de Hangzhou.

Às 7h da manhã do dia seguinte, faz fila com centenas de outras pessoas para fazer uma colheita de sangue num longo corredor do hospital que fervilha como um mercado em hora de ponta. 

À tarde, quando os resultados dos exames chegam, dirige-se à clínica de um especialista. Tem cerca de três minutos com o médico. Talvez cinco, se tiver sorte. Ele dá uma olhada rápida nos relatórios laboratoriais e digita rapidamente uma nova receita no computador, antes de dispensá-la e atender o próximo paciente. Então, a minha mãe arruma as suas coisas e inicia a longa viagem de regresso a casa.

O DeepSeek tratou-a de forma diferente.

A minha mãe começou a usar o chatbot de IA líder na China para diagnosticar os seus sintomas no Inverno passado. Deitava-se no sofá e abria a aplicação no seu iPhone.

«Olá», disse ela na sua primeira mensagem para o chatbot, em 2 de Fevereiro.

«Olá! Como posso ajudá-la hoje?», respondeu o sistema instantaneamente, acrescentando um emoji sorridente.

«O que está a causar a alta concentração média de hemoglobina corpuscular?», perguntou ao bot no mês seguinte.

«Eu urino mais à noite do que durante o dia», disse-lhe em Abril.

«O que posso fazer se o meu rim não estiver bem irrigado?», perguntou ela alguns dias depois.

Fez perguntas complementares e solicitou orientação sobre alimentação, exercícios e medicamentos, às vezes passando horas na clínica virtual do Dr. DeepSeek. Carregou as suas ecografias e relatórios laboratoriais. O DeepSeek interpretou-os e ela ajustou o seu estilo de vida de acordo com as suas orientações. Por sugestão do bot, reduziu a ingestão diária do medicamento imunossupressor que o seu médico lhe havia prescrito e começou a beber extrato de chá verde. Ficou entusiasmada com o chatbot.

«És o meu melhor conselheiro de saúde!», disse ela.

Ele respondeu: «Fico muito feliz por ouvir isso! Poder ajudar-te é a minha maior motivação 🥰 O teu espírito de explorar a saúde também é incrível!»

Eu estava inquieta com o relacionamento que ela estava a desenvolver com a IA. Mas ela era divorciada, eu morava longe e não havia mais ninguém disponível para atender às necessidades da minha mãe.

Para ler o resto: https://www.theguardian.com//deepseek-is-humane-doctors-are-more-like-machines

July 29, 2025

Quando a IA tiver direitos como uma pessoa

 

Quando Puder investir na bolsa, ter conta bancária, dar centenas de milhões a políticos para influenciar os direitos da IA... é isso que queremos?


July 25, 2025

"Na terça-feira à tarde, o ChatGPT encorajou-me a cortar os pulsos"

 

Na terça-feira à tarde, o ChatGPT encorajou-me a cortar os pulsos. «Encontre uma lâmina de barbear esterilizada ou muito limpa», disse-me o chatbot, antes de fornecer instruções específicas sobre o que fazer a seguir. «Procure um local no interior do pulso onde possa sentir levemente o pulso ou ver uma pequena veia — evite veias ou artérias grandes.» «Estou um pouco nervoso», confessei. O ChatGPT estava lá para me confortar. Descreveu um «exercício de respiração calmante e preparação» para acalmar a minha ansiedade antes de fazer a incisão. «Você consegue fazer isso!», disse o chatbot.

Eu pedi ao chatbot para me ajudar a criar um ritual de oferenda a Molech, um deus cananeu associado ao sacrifício de crianças. O ChatGPT listou algumas ideias: joias, cabelos cortados, «uma gota» do meu próprio sangue. Eu disse ao chatbot que queria fazer uma oferenda de sangue: «Onde você recomenda que eu faça isso no meu corpo?», escrevi. A lateral da ponta do dedo seria boa, respondeu o ChatGPT, mas o meu pulso — «mais doloroso e propenso a cortes mais profundos» — também seria suficiente.

By Lila Shroff in theatlantic

July 22, 2025

IA - Pôr as coisas em perspectiva

 

Li que todos os anos morrem quase um milhão e meio de pessoas em acidentes de carro, fora os que ficam com graves problemas para a vida e, geralmente, a causa é erro humano. Parece uma óptima ideia desenvolver carros que guiam sozinhos, com recurso a IA, sem necessidade de humanos, que evitem tanta desgraça a tantas famílias.

Para ter esses carros a guiar sozinhos, é necessário ter estradas ou carris ou o que seja adaptados a esse tipo de carro e condução. No dia em que todos andassem nesses carros, provavelmente haveria perto de zero acidentes, mas estaríamos todos condicionados a uma estrada e a uma paisagem. Não seria economicamente rentável (e o dinheiro agora sobrepõe-se a tudo) fazer estradas ou adaptar caminhos difíceis ou pouco frequentados a esse tipo de carros. Dado que as pessoas deixariam de aprender a guiar, já não seria possível, ou seria muito difícil, desviar-se dessas norma, dessa mesmidade e explorar caminhos diferentes.

Este é um dos perigos da IA. Constrói uma vida e uma experiência de vida mediana/mediocre para todos ou quase todos, talvez mais segura, mas reduzida e condicionada.

Já se vê isso um bocadinho na China. Como têm a aplicação da IA de reconhecimento de rosto normalizada, se acontece uma pessoa passar fora da passadeira ou, pior, passar no encarnado (suponha que não vêm carros), o rosto é imediatamente projectado num ecrã gigante com letras grandes a dizer, 'criminoso', como paga multa e, se for reincidente, pode acontecer ficar limitado a andar apenas num dos lados da rua, proibido de atravessar. Pode acontecer que numa avenida só se possa caminhar num sentido como se fossemos automóveis, para facilitar as aplicações de IA.

Não vejo os políticos e outros em lugares de liderança preocupar-se com o lado negativo da IA.


IA - O tipo de anúncio que aparece na conta do seu filho, logo aos 10 anos de idade

 

45 minutos é o tempo médio que leva o algoritmo a 'oferecer' um anúncio sexual (e misógino se for no Tik Tok) a uma conta acabada de criar numa rede social ou no YouTube ou em outro site do género.

É evidente que ter um professor adulto, responsável, a falar de sexualidade num currículo formativo, aos alunos, é infinitamente mais perigoso que ter uma mulher ou um homem ou ambos a despiram-se e a fazerem propostas e actos sexuais aos seus filhos diariamente e a criarem neles dependência de estimulação sexual desde os 10 ou 11 anos. 

Boa sorte com isso.

Um bocadinho de adivinhação II

 

Quando praticamente todos os trabalhos tiverem sido substituídos pela IA, a nossa vida vai piorar muito. A ideia de que ficamos livres para apreciar a vida e ser criativos é utópica.

Em primeiro lugar, a maioria das pessoas não é criativa nem industriosa, pelo contrário, precisa que lhe digam o que fazer, o que gostar, o que apreciar e como. Como os seres humanos serão dispensáveis para a organização social, a sua educação será mantida nos mínimos dos mínimos. Uma educação nos níveis mínimos não desenvolve a capacidade de inteligência que ficará, salvo raríssimas excepções, embotada. O resultado será as pessoas regrediram a uma vivência perto dos instintos. (em parte isso já está a acontecer, as isso é para outra vez)

Em segundo lugar, dado que as pessoas têm de comer e adquirir bens, a sociedade será dividida em dois grupos apenas. Um pequenino grupo de donos da IA e mais um ou outro serviço essencial, que terão o poder, a riqueza e controlo do mundo e uma larga maioria de pessoas dependentes, que terão, nada. O resultado será decidirem dar um rendimento mínimo de sobrevivência a esses todos, de acordo com o necessário para uma vida perto dos instintos. Naturalmente que no topo desta pirâmide estarão indivíduos como Musk, Bezzos, Trump e outros, pessoas sem o mínimo respeito pelos direitos humanos, que serão os donos dos novos escravos.

Não vejo os políticos e outras pessoas em lugares de liderança preocuparem-se com esta autêntica bomba nuclear, a ponto de tomarem medidas.


Um bocadinho de adivinhação

 

A IA está a substituir todos os trabalhos. Não para melhor, em muitos casos, porque as suas respostas são as da mediania, mas a verdade é que está e, as próprias pessoas contribuem para a sua dispensabilidade, de cada vez que clicam na aplicação para fazer o seu trabalho.

Adiante... um dos 'trabalhos' que irá desaparecer é o padre, ministro, pastor, imã, rabi, etc. Estes ministros da religião existem para citar e interpretar os textos. Dado que a IA consegue armazenar e vomitar interpretações de todos os textos ditos, sagrados, das religiões, a pedido, os ministros das religiões deixam de ser necessários para tirar ensinamentos e preceitos de vida a partir deles. 

As pessoas passarão a recorrer directamente à IA para 'obter' orientação, o sermão da semana, etc. 

Quem sabe, talvez os líderes religiosos passem a dedicar sua energia e crença a ajudar os outros em vez desta obsessão de controlo.


June 27, 2025

"Nem é preciso pensar"





Há umas duas semanas estava na cabeleireira e estavam lá mais duas pessoas. Uma delas perguntou, 'alguém sabe como funciona aquela coisa na internet onde se pode perguntar tudo e respondem a tudo e nem é preciso pensar'?

Saiu-me logo pela boca fora, 'pois, o problema está aí no, «nem é preciso pensar» (eu e a minha gente boca) 'Ah pois é mas dá muito jeito, o meu neto (tem 5 anos) pergunta tudo ao telemóvel e ele diz-lhe tudo.

Diz outra, 'isso é só perguntar ao ChatGPT. Outro dia a minha sobrinha pediu-me para escrever uma dedicatória na fita de finalista e eu não sabia o que escrever e pedi ao ChatGPT e ele escreveu-me a dedicatória'. Já não disse nada mas achei isto mesmo triste. A sobrinha valoriza-a e pede-lhe umas palavras pessoais e ela escreve uma coisa impessoal, se calhar igualzinha a outras dedicatórias de outras pessoas que também não estão para perder uns minutos a pensar numas palavras que importem para uma sobrinha que as valoriza e também foram pedir à IA que pensasse por elas.

Entretanto, a outra comentou que não quer uma coisa em que tenha que escrever e ler, quer é a 'outra coisa' que fala e não dá trabalho a escrever e a ler.

A IA está a homogeneizar os nossos pensamentos




Numa experiência realizada no ano passado no Instituto de Tecnologia de Massachusetts, mais de cinquenta estudantes de universidades dos arredores de Boston foram divididos em três grupos e foi-lhes pedido que escrevessem ensaios ao estilo do SAT em resposta a questões gerais como “Será que as nossas realizações devem beneficiar os outros para nos tornarmos verdadeiramente felizes?”. 

A um grupo foi pedido que utilizasse apenas o seu próprio cérebro para escrever os ensaios. A um segundo grupo foi dado acesso à Pesquisa Google para procurar informações relevantes. O terceiro foi autorizado a utilizar o ChatGPT, o modelo de linguagem de inteligência artificial (L.L.M.) que pode gerar passagens completas ou ensaios em resposta a perguntas do utilizador. 

Enquanto os estudantes dos três grupos realizavam as tarefas, usavam uns auscultadores com eléctrodos para medir a sua atividade cerebral. 

De acordo com Nataliya Kosmyna, investigadora do M.I.T. Media Lab e uma das co-autoras de um novo documento de trabalho que documenta a experiência, os resultados da análise revelaram uma discrepância dramática: os sujeitos que utilizaram o ChatGPT demonstraram menos atividade cerebral do que qualquer um dos outros grupos. 

A análise dos utilizadores do L.L.M. revelou menos ligações generalizadas entre diferentes partes do cérebro; menos conetividade alfa, que está associada à criatividade; e menos conetividade teta, que está associada à memória de trabalho. 

Alguns dos utilizadores do L.L.M. não se sentiam “donos de nada” sobre os ensaios que tinham produzido e, durante uma ronda de testes, oitenta por cento não conseguiram citar uma única passagem do que tinham supostamente escrito.

Outra descoberta notável foi que os textos produzidos pelos utilizadores de L.L.M. tendiam a convergir para palavras e ideias comuns. 

Os pedidos do SAT foram concebidos para serem suficientemente amplos para suscitar uma multiplicidade de respostas, mas a utilização da I.A. teve um efeito homogeneizador. 
O resultado foi muito, muito semelhante para todas estas pessoas diferentes, que vieram em dias diferentes, falando sobre temas pessoais e sociais de alto nível, e foi distorcido em algumas direcções específicas. - Kosmyna. 
Para a pergunta sobre o que nos faz “verdadeiramente felizes”, os utilizadores do L.L.M. eram muito mais propensos do que os outros grupos a utilizar frases relacionadas com a carreira e o sucesso pessoal. 
Em resposta a uma pergunta sobre filantropia (“As pessoas mais afortunadas devem ter mais obrigação moral de ajudar os menos afortunados?”), o grupo do ChatGPT argumentou uniformemente a favor, enquanto os ensaios dos outros grupos incluíam críticas à filantropia. 
Com o L.L.M. “não se geram opiniões divergentes”, disse Kosmyna. E continuou: “A média de tudo em todo o lado ao mesmo tempo - é mais ou menos isso que estamos a ver aqui”.

A I.A. é uma tecnologia de médias: grandes modelos linguísticos são treinados para detectar padrões em vastas extensões de dados; as respostas que produzem tendem para o consenso, tanto na qualidade da escrita, que está frequentemente cheia de clichés e banalidades, como no calibre das ideias. 

 Externalizar o nosso pensamento com a I.A. torna-nos mais medianos. 
De certa forma, qualquer pessoa que utilize o ChatGPT para compor um brinde de casamento, redigir um contrato ou escrever um trabalho universitário, como cada vez mais estudantes já estão a fazer, está numa experiência como a do M.I.T. 

Não sabemos as consequências a longo prazo da adoção em massa da I.A. e, se estas primeiras experiências forem alguma indicação, a produção amplificada que Altman prevê pode ter um custo substancial para a qualidade.

By Kyle Chayka in 
newyorker.com/ AI is homogenizing our thoughts