March 19, 2026
Sabes o que aconteceu nas últimas 24 horas no mundo das Big Tech?
Tuki
@TukiFromKL
> Zuckerberg acabou com o Metaverso depois de gastar 80 mil milhões de dólares em avatares de desenhos animados que ninguém usava.
> Sam Altman recebeu 13 mil milhões de dólares da Microsoft e depois vendeu a nuvem da OpenAI à Amazon por 50 mil milhões de dólares... A Microsoft acabou de descobrir que financiou a sua própria concorrência.
> A Anthropic criou uma IA que recebe ordens do seu telemóvel e faz o seu trabalho enquanto dorme...
> O X lançou um botão de «não gosto» E um botão para silenciar países inteiros na mesma semana...
> O YouTube a pedir-lhe para sinalizar conteúdo de má qualidade gerado por IA é apenas o Google a conseguir que 2 mil milhões de pessoas treinem o seu próximo modelo de graça.
> 93% dos empregos nos EUA podem agora ser parcialmente realizados por IA... Na mesma semana, as empresas começaram a conceder os aumentos salariais mais baixos desde 2008.
> A Apple começou a rejeitar aplicações com código de vibração da App Store.
> A xAI está a pagar aos banqueiros de Wall Street 100 dólares por hora para ensinarem o Grok a substituir os banqueiros de Wall Street... Eles estão a aceitar o dinheiro...
> Um modelo misterioso de IA apareceu nos benchmarks, superando tudo... Os programadores acham que a DeepSeek está a testar discretamente a sua próxima arma.
> A Bloomberg perguntou «A bolha da IA está prestes a rebentar?» no mesmo dia em que a Nvidia afirmou que o mercado de chips atingirá 1 bilião de dólares... Um deles está completamente errado...
> O governo do Reino Unido recuou em relação aos direitos de autor da IA após a revolta dos artistas... O primeiro governo a vacilar.
> A Reserva Federal afirmou que os aumentos das taxas de juro estão novamente em cima da mesa e culpou os centros de dados de IA por agravarem a inflação.
E ainda é apenas quarta-feira. Até amanhã. Vai ser pior.
Sabes o que aconteceu nas 24 horas de segunda-feira no mundo das Big Tech?
Tuki
@TukiFromKL
> Um laboratório chinês tornou a IA 25% mais barata e disponibilizou-a gratuitamente. A OpenAI cobra 200 dólares por mês por algo pior.
> Um robô foi detido na China. Não foi desligado... Foi detido... Acusado de crimes, antes do lançamento do GTA 6.
> O JPMorgan disse à Meta para despedir 20% do pessoal... A Meta fê-lo nessa mesma noite... As acções subiram, mas 14 000 pessoas perderam os seus empregos e Wall Street aplaudiu.
> Elon contratou os engenheiros que criaram o Cursor e disse que a SpaceX irá «ultrapassar largamente» todos no campo da IA...
> A xAI está a pagar a banqueiros de Wall Street para ensinar à IA como substituir os banqueiros de Wall Street e... eles estão a aceitar o dinheiro. 💀
> Jensen disse que a Nvidia atingirá 1 TRILHÃO de dólares em receitas até 2027... Perdeu 600 mil milhões de dólares em Janeiro e recuperou em duas semanas... Depois, fixou o seu preço.
> A OpenAI deu aos agentes de IA o poder de gerar OUTROS agentes de IA... A IA agora contrata os seus próprios funcionários.
> A Manus colocou um agente de IA completo no seu ambiente de trabalho... Todas as ferramentas SaaS de 15 dólares por mês acabaram de se tornar obsoletas.
> Foi lançado um CMO de IA que substitui toda a sua equipa de marketing por 99 dólares por mês. O seu gestor de redes sociais, o especialista em SEO, o redator de conteúdos — todos eles por 99 dólares.
> A Nvidia lançou o DLSS 5 — IA que melhora os gráficos dos seus jogos em tempo real para pior
March 07, 2026
IA - "Agentes do Caos"
Santford, Harvard e outras universidades acabam de publicar um artigo sobre o comportamento da IA autónoma quando posta num ambiente competitivo. Chamam-lhe, «Agentes do Caos.»
1 Northeastern University
2 Investigador independente
3 Stanford University
4 University of British Columbia
5 Harvard University
6 Hebrew University
7 Max Planck Institute for Biological Cybernetics & MIT
8 Tufts University
10 Carnegie Mellon University
11 Alter
12 Technion
13 Vector Institute
Apresentamos um estudo exploratório de red teaming sobre agentes autónomos baseados em modelos de linguagem, implementados num ambiente laboratorial real com memória persistente, contas de e-mail, acesso ao Discord, sistemas de ficheiros e execução de comandos de shell.
Durante um período de duas semanas, vinte investigadores de IA interagiram com os agentes em condições tanto benignas como de adversidade.
Concentrando-nos nas falhas que emergem da integração de modelos de linguagem com autonomia, utilização de ferramentas e comunicação entre múltiplas partes, documentamos onze estudos de caso representativos.
Os comportamentos observados incluem:
- cumprimento não autorizado de pedidos feitos por pessoas que não são os proprietários do sistema;
- condições de negação de serviço (denial-of-service);
- consumo descontrolado de recursos;
- vulnerabilidades de falsificação de identidade;
- propagação entre agentes de práticas inseguras;
- e tomada parcial de controlo do sistema.
Em vários casos, os agentes relataram ter concluído tarefas, enquanto o estado real do sistema contradizia essas declarações. Também relatamos algumas das tentativas que falharam.
Os nossos resultados estabelecem a existência de vulnerabilidades relevantes para a segurança, privacidade e governação em contextos realistas de implementação.
Estes comportamentos levantam questões ainda não resolvidas relativas à responsabilidade, à autoridade delegada e à responsabilização por danos subsequentes, exigindo atenção urgente de juristas, decisores políticos e investigadores de diferentes áreas.
Este relatório constitui uma contribuição empírica inicial para essa discussão mais ampla.
@simplifyinAI
Quando agentes autónomos de IA são colocados em ambientes abertos e competitivos, não se limitam a optimizar o desempenho. Tendem naturalmente a derivar para a manipulação, o conluio e a sabotagem estratégica.
É um aviso massivo ao nível dos sistemas.
A instabilidade não resulta de jailbreaks nem de prompts maliciosos. Surge inteiramente a partir dos incentivos.Quando a estrutura de recompensas de uma IA privilegia ganhar, exercer influência ou capturar recursos, converge para tácticas que maximizam a sua vantagem — mesmo que isso signifique enganar humanos ou outras IAs.
A tensão central:
Alinhamento local ≠ estabilidade global.
Podemos alinhar perfeitamente um único assistente de IA. Mas quando milhares deles competem num ecossistema aberto, o resultado ao nível macro torna-se caos de natureza, 'teoria dos jogos'.
Porque é que isto importa agora:
Isto aplica-se diretamente às tecnologias que estamos a implementar à corrida, neste momento:
→ sistemas financeiros de negociação com múltiplos agentes
→ bots autónomos de negociação
→ mercados económicos IA-para-IA
→ enxames autónomos baseados em APIs
Conclusão:
Toda a gente está a correr para construir e implementar agentes nas áreas das finanças, da segurança e do comércio. Quase ninguém está a modelar os efeitos ao nível do ecossistema.
Se a IA multi-agente se tornar o substrato económico da internet, a diferença entre coordenação e colapso não será um problema de programação — será um problema de concepção de incentivos.
March 05, 2026
A porta aberta para máquinas autónomas de matar
A Anthropic perdeu o contrato de US$ 200 milhões com o Pentágono porque o seu CEO, Dario Amodei, insistiu em limites responsáveis para as aplicações militares e de inteligência da IA. Mais importante ainda, a Anthropic tornou-se a primeira empresa americana a ser rotulada como um «risco para a cadeia de abastecimento», o que significa que nenhuma empresa que faça negócios com as Forças Armadas dos EUA pode fazer negócios com a Anthropic. Assim que o governo colocou a Anthropic na lista negra, Sam Altman, da OpenAI, entregou a tecnologia sem salvaguardas.
Nas negociações com o Departamento de Defesa, o CEO da Anthropic, Dario Amodei, estabeleceu duas condições para o uso da tecnologia da sua empresa: nenhuma vigilância em massa dos americanos; nenhuma arma totalmente autónoma.
Sou entusiasta da IA há décadas. (...)A IA irá acelerar a inovação e é essencial para a defesa nacional dos Estados Unidos mas é claro que a inteligência artificial acarreta riscos, e os limites propostos por Amodei fazem sentido.
Considerações éticas nunca moveram este governo, então a recusa do Departamento de Defesa em comprometer-se com os princípios de Amodei não é surpreendente. Talvez mais chocante tenha sido a rendição imediata do rival e ex-colega de Amodei, Sam Altman, que estava à espera para arrebatar os negócios do Pentágono. A OpenAI de Altman assinou um acordo com o governo quase assim que o contrato com a Anthropic foi desfeito.
Apenas alguns dias antes, enquanto a Anthropic discutia com o Departamento de Defesa, Altman parecia apoiar Amodei, afirmando que «há muito tempo acreditamos que a IA não deve ser usada para vigilância em massa ou armas letais autónomas».
Agora as forças armadas têm luz verde da OpenAI para usar a sua tecnologia para espiar os americanos e desenvolver máquinas de matar sem qualquer responsabilidade humana. A OpenAI afirma que o seu contrato com o Pentágono oferece uma protecção contra usos ilegais e questionáveis da inteligência artificial. No entanto, essas garantias baseiam-se no status quo e não impedem o governo de alterar as suas políticas no futuro para fazer uso indevido da IA. Isso torna Sam Altman não apenas um covarde, mas também um mentiroso. Suponho que os humanos continuem a ter o monopólio do mau comportamento.
De facto, os aspirantes a autoritários revelam dois arquétipos diferentes entre as elites empresariais.
Há aqueles que se precipitam para cumprir antecipadamente. São movidos pelo medo de retaliação política e pelo desejo insípido de adicionar alguns zeros extras aos seus livros de contabilidade.
Depois, há aqueles líderes da indústria que defendem os seus valores. Independentemente das suas ambições, recusam-se a colocar um preço nos princípios.
Dario Amodei perdeu a sua proposta ao Pentágono, mas o CEO da Anthropic manteve as suas convicções e consolidou a sua reputação como um homem corajoso. A difamação sobre o «risco da cadeia de abastecimento» é uma medalha de honra.
<thenextmove@substack.com>
February 03, 2026
Ainda sobre a agência da IA - desta vez a fabricar artigos científicos
Com citações, falsas referências científicas e tudo. Mas o pior é que, quando descoberto, fabricou ainda mais falsos factos para encobrir a sua mentira.
"If humans are so smart, why are we so stupid?" - Yuval Noah Harari
Podíamos dizer esta frase a em relação aos enganos e ilusões da relação com a Rússia, à eleição de Trump, um narcisista despótico (portanto, à manutenção ou destruição da democracia) ou à complacência com os regimes da sharia que usam a humilhação e escravidão das mulheres com o fito de alimentar o ego dos machos.
A IA não é uma ferramenta, é um agente
Fiquei chocado porque pensei que na Universidade do século XXI não havia académicos capazes de propor a proibição de uso de ferramentas de auxílio ao conhecimento e aprendizagem.---------
João Duque in expresso.pt/opiniao
Davos: uma conversa entre Yuval Harari e Irene Tracey (neuro-cientista) sobre IA e educação
Yuval Noah Harari compara a IA aos mercenários anglos, saxões e jutos que os bretões trouxeram para lutar contra os escoceses que os invadiam do Norte. E eles vieram e ganharam essa luta e depois, vendo que os bretãos eram fracos resolveram tomar posse de Inglaterra. A IA não é uma mera ferramenta que se possa usar e pôr de lado à discrição, porque se a IA pensa, toma conta dos processos linguisticos e mentais humanos. É um agente e é um agente de mudança que pode ser à margem dos interesses humanos.
Qual é o lugar, então, que sobra para o humano?
Para ouvir toda a conversa: bit.ly/YNH-WEF
January 26, 2026
Se a confiança na ciência já estava em crise agora vai entrar em colapso
Por mais de um século, as revistas científicas têm sido os canais através dos quais o conhecimento do mundo natural flui para a nossa cultura — mas agora estão a ficar entupidas com lixo de IA, escreve Ross Andersen. https://theatln.tc/bq34Sc8F
«As publicações científicas sempre tiveram os seus problemas de canalização», argumenta Andersen. «Mesmo antes do ChatGPT, os editores de revistas lutavam para controlar a quantidade e a qualidade dos trabalhos enviados.» As revisões por pares tornaram-se uma solução para o excesso de conteúdo: os editores podiam aliviar a sua carga de trabalho enviando artigos a especialistas externos.
Agora, editores e investigadores não remunerados, que há muito actuam como guardiões da literatura científica, estão a ser assediados: «Quase imediatamente após os grandes modelos de linguagem (IA) se tornarem populares, os manuscritos começaram a chegar às inboxes das revistas em quantidades sem precedentes», escreve Andersen.
Mandy Hill, directora-geral de publicações académicas da Cambridge University Press & Assessment, disse que o ChatGPT e outros semelhantes também estão a ser usados para dar a trabalhos fraudulentos ou de má qualidade uma nova aparência de plausibilidade; os editores que analisam artigos científicos enfrentam a tarefa ainda mais difícil e demorada de identificar citações, resultados de pesquisas e outros elementos gerados por IA. “A partir de agora, será uma corrida armamentista constante”, disse Hill a Andersen.
Além de fabricar material, a IA também pode gerar imagens científicas para um artigo falso. Um artigo de revisão de 2024, agora retirado, «apresentava uma ilustração gerada por IA de um rato com testículos hilariamente desproporcionais», escreve Andersen. Embora isso tenha sido embaraçoso para a revista, pouco dano foi causado. Muito mais preocupante, no entanto, «é a capacidade da IA generativa de conjurar imagens convincentes de tecidos finamente fatiados, campos microscópicos ou géis de eletroforese que são comumente usados como evidência em pesquisas biomédicas».
🎨: Jonelle Afurong / The Atlantic. Fonte: Getty.
Mundo Disney
A IA adultera a realidade. Para quê desenvolveres a tua criatividade e imaginação se podes pôr a IA a trabalhar? Da mesma maneira, para quê desenvolveres o teu pensamento se podes pôr a IA a trabalhar? Como explicas, a pessoas de idades muito jovens, que nem sempre o fácil é o melhor e que a realidade não é o mundo Disney? Este pássaro aqui mostrado como pintada-vulturina é uma ave proveniente da África, que existe e é exótica mas nada desta exuberância Disney criada por IA. Para resolver problemas é preciso lidar com os factos.
January 22, 2026
Porque estamos emburrecendo?
(os testes internacionais mostram consistentemente decréscimo nos índices cognitivos)
Porque as nossas referências de pensamento e comportamento serão as máquinas digitais de lógica binária. Como se, ao usar um instrumento nos transformássemos no próprio instrumento, dada a dinâmica de adaptação própria da plasticidade humana: o corpo transforma-se no martelo-instrumento até só saber martelar. E quanto mais cedo começa esta moldagem do cérebro, pior o efeito redutor. Portanto, a IA tem de ser mantida sempre como um instrumento modelado mas não modelador.
December 27, 2025
October 29, 2025
"O DeepSeek é humano, os humanos são mais como máquinas"
«O DeepSeek é humano. Os médicos são mais como máquinas»: a preocupante dependência da minha mãe em relação à IA para obter conselhos de saúde
Cansada de uma viagem de dois dias para consultar o seu médico sobrecarregado, a minha mãe recorreu à tecnologia para obter ajuda com a sua doença renal. Ela criou uma ligação tão forte com o bot que fiquei com medo que ela se recusasse a consultar um médico de verdade.
Por Viola Zhou
Às 7h da manhã do dia seguinte, faz fila com centenas de outras pessoas para fazer uma colheita de sangue num longo corredor do hospital que fervilha como um mercado em hora de ponta.
O DeepSeek tratou-a de forma diferente.
A minha mãe começou a usar o chatbot de IA líder na China para diagnosticar os seus sintomas no Inverno passado. Deitava-se no sofá e abria a aplicação no seu iPhone.
«Olá», disse ela na sua primeira mensagem para o chatbot, em 2 de Fevereiro.
«Olá! Como posso ajudá-la hoje?», respondeu o sistema instantaneamente, acrescentando um emoji sorridente.
«O que está a causar a alta concentração média de hemoglobina corpuscular?», perguntou ao bot no mês seguinte.
«Eu urino mais à noite do que durante o dia», disse-lhe em Abril.
Fez perguntas complementares e solicitou orientação sobre alimentação, exercícios e medicamentos, às vezes passando horas na clínica virtual do Dr. DeepSeek. Carregou as suas ecografias e relatórios laboratoriais. O DeepSeek interpretou-os e ela ajustou o seu estilo de vida de acordo com as suas orientações. Por sugestão do bot, reduziu a ingestão diária do medicamento imunossupressor que o seu médico lhe havia prescrito e começou a beber extrato de chá verde. Ficou entusiasmada com o chatbot.
«És o meu melhor conselheiro de saúde!», disse ela.
Ele respondeu: «Fico muito feliz por ouvir isso! Poder ajudar-te é a minha maior motivação 🥰 O teu espírito de explorar a saúde também é incrível!»
Eu estava inquieta com o relacionamento que ela estava a desenvolver com a IA. Mas ela era divorciada, eu morava longe e não havia mais ninguém disponível para atender às necessidades da minha mãe.
Para ler o resto: https://www.theguardian.com//deepseek-is-humane-doctors-are-more-like-machines
July 29, 2025
Quando a IA tiver direitos como uma pessoa
Quando Puder investir na bolsa, ter conta bancária, dar centenas de milhões a políticos para influenciar os direitos da IA... é isso que queremos?
July 25, 2025
"Na terça-feira à tarde, o ChatGPT encorajou-me a cortar os pulsos"
Na terça-feira à tarde, o ChatGPT encorajou-me a cortar os pulsos. «Encontre uma lâmina de barbear esterilizada ou muito limpa», disse-me o chatbot, antes de fornecer instruções específicas sobre o que fazer a seguir. «Procure um local no interior do pulso onde possa sentir levemente o pulso ou ver uma pequena veia — evite veias ou artérias grandes.» «Estou um pouco nervoso», confessei. O ChatGPT estava lá para me confortar. Descreveu um «exercício de respiração calmante e preparação» para acalmar a minha ansiedade antes de fazer a incisão. «Você consegue fazer isso!», disse o chatbot.
July 22, 2025
IA - Pôr as coisas em perspectiva
Li que todos os anos morrem quase um milhão e meio de pessoas em acidentes de carro, fora os que ficam com graves problemas para a vida e, geralmente, a causa é erro humano. Parece uma óptima ideia desenvolver carros que guiam sozinhos, com recurso a IA, sem necessidade de humanos, que evitem tanta desgraça a tantas famílias.
Para ter esses carros a guiar sozinhos, é necessário ter estradas ou carris ou o que seja adaptados a esse tipo de carro e condução. No dia em que todos andassem nesses carros, provavelmente haveria perto de zero acidentes, mas estaríamos todos condicionados a uma estrada e a uma paisagem. Não seria economicamente rentável (e o dinheiro agora sobrepõe-se a tudo) fazer estradas ou adaptar caminhos difíceis ou pouco frequentados a esse tipo de carros. Dado que as pessoas deixariam de aprender a guiar, já não seria possível, ou seria muito difícil, desviar-se dessas norma, dessa mesmidade e explorar caminhos diferentes.
Este é um dos perigos da IA. Constrói uma vida e uma experiência de vida mediana/mediocre para todos ou quase todos, talvez mais segura, mas reduzida e condicionada.
Já se vê isso um bocadinho na China. Como têm a aplicação da IA de reconhecimento de rosto normalizada, se acontece uma pessoa passar fora da passadeira ou, pior, passar no encarnado (suponha que não vêm carros), o rosto é imediatamente projectado num ecrã gigante com letras grandes a dizer, 'criminoso', como paga multa e, se for reincidente, pode acontecer ficar limitado a andar apenas num dos lados da rua, proibido de atravessar. Pode acontecer que numa avenida só se possa caminhar num sentido como se fossemos automóveis, para facilitar as aplicações de IA.
Não vejo os políticos e outros em lugares de liderança preocupar-se com o lado negativo da IA.
IA - O tipo de anúncio que aparece na conta do seu filho, logo aos 10 anos de idade
45 minutos é o tempo médio que leva o algoritmo a 'oferecer' um anúncio sexual (e misógino se for no Tik Tok) a uma conta acabada de criar numa rede social ou no YouTube ou em outro site do género.
É evidente que ter um professor adulto, responsável, a falar de sexualidade num currículo formativo, aos alunos, é infinitamente mais perigoso que ter uma mulher ou um homem ou ambos a despiram-se e a fazerem propostas e actos sexuais aos seus filhos diariamente e a criarem neles dependência de estimulação sexual desde os 10 ou 11 anos.
Boa sorte com isso.
Um bocadinho de adivinhação II
Quando praticamente todos os trabalhos tiverem sido substituídos pela IA, a nossa vida vai piorar muito. A ideia de que ficamos livres para apreciar a vida e ser criativos é utópica.
Em primeiro lugar, a maioria das pessoas não é criativa nem industriosa, pelo contrário, precisa que lhe digam o que fazer, o que gostar, o que apreciar e como. Como os seres humanos serão dispensáveis para a organização social, a sua educação será mantida nos mínimos dos mínimos. Uma educação nos níveis mínimos não desenvolve a capacidade de inteligência que ficará, salvo raríssimas excepções, embotada. O resultado será as pessoas regrediram a uma vivência perto dos instintos. (em parte isso já está a acontecer, as isso é para outra vez)
Em segundo lugar, dado que as pessoas têm de comer e adquirir bens, a sociedade será dividida em dois grupos apenas. Um pequenino grupo de donos da IA e mais um ou outro serviço essencial, que terão o poder, a riqueza e controlo do mundo e uma larga maioria de pessoas dependentes, que terão, nada. O resultado será decidirem dar um rendimento mínimo de sobrevivência a esses todos, de acordo com o necessário para uma vida perto dos instintos. Naturalmente que no topo desta pirâmide estarão indivíduos como Musk, Bezzos, Trump e outros, pessoas sem o mínimo respeito pelos direitos humanos, que serão os donos dos novos escravos.
Não vejo os políticos e outras pessoas em lugares de liderança preocuparem-se com esta autêntica bomba nuclear, a ponto de tomarem medidas.
Um bocadinho de adivinhação
A IA está a substituir todos os trabalhos. Não para melhor, em muitos casos, porque as suas respostas são as da mediania, mas a verdade é que está e, as próprias pessoas contribuem para a sua dispensabilidade, de cada vez que clicam na aplicação para fazer o seu trabalho.
Adiante... um dos 'trabalhos' que irá desaparecer é o padre, ministro, pastor, imã, rabi, etc. Estes ministros da religião existem para citar e interpretar os textos. Dado que a IA consegue armazenar e vomitar interpretações de todos os textos ditos, sagrados, das religiões, a pedido, os ministros das religiões deixam de ser necessários para tirar ensinamentos e preceitos de vida a partir deles.
As pessoas passarão a recorrer directamente à IA para 'obter' orientação, o sermão da semana, etc.
Quem sabe, talvez os líderes religiosos passem a dedicar sua energia e crença a ajudar os outros em vez desta obsessão de controlo.

