Notícias de IA, 28 de janeiro de 2026

Resumo das notícias de IA: 28 de janeiro de 2026

🧬 A DeepMind lança o AlphaGenome para identificar os fatores genéticos que impulsionam as doenças

A DeepMind apresentou o AlphaGenome, um sistema de IA que visa prever como as mutações do DNA alteram a regulação gênica — basicamente, quando os genes são ativados, onde e com que intensidade. Ele consegue analisar enormes extensões de DNA de uma só vez, incluindo as extensas regiões não codificantes que muitas vezes são consideradas matéria escura biológica.

A proposta é bem direta: identificar mais rapidamente quais mutações são realmente relevantes para problemas como risco de câncer e doenças hereditárias complexas. Se funcionar como anunciado, os pesquisadores gastarão menos tempo fazendo suposições e mais tempo testando as coisas certas — o que parece óbvio, mas é, na verdade, o objetivo principal.

🧑💼 A inteligência artificial vai custar empregos, admite Liz Kendall

A secretária de tecnologia do Reino Unido afirmou abertamente que a adoção da IA ​​causará perda de empregos — não com a habitual demonstração de "vai ficar tudo bem, prometo". Ela mencionou a ansiedade em relação a vagas para recém-formados em áreas como direito e finanças, e não fingiu que existe um número exato que alguém possa prever.

Ao mesmo tempo, o governo está investindo fortemente na adaptação: um grande esforço para treinar milhões de trabalhadores em habilidades básicas de IA, visando tornar o Reino Unido um país que adota IA mais rapidamente. É a tensão clássica: sim, empregos desaparecem, sim, empregos surgem, mas não, a transição não será tranquila.

🗞️ Reino Unido pressiona o Google para permitir que sites optem por não participar das Visões Gerais de IA

Os reguladores da concorrência do Reino Unido propuseram alterações que permitiriam aos editores optar por não ter seu conteúdo usado nos Panoramas de IA do Google — ou para treinar modelos de IA independentes — sem serem penalizados nos rankings de pesquisa normais. Essa parte de "sem serem penalizados" faz muita diferença aqui.

A ideia é reequilibrar o poder à medida que os resumos de IA remodelam a forma como as pessoas clicam (ou não clicam). A resposta do Google foi basicamente: o comportamento de busca está mudando, estamos considerando mais controles, mas não quebrem o produto em uma versão fragmentada e desajeitada de si mesmo… o que, convenhamos, é justo, mas também conveniente.

🛡️ Proteger seus dados quando um agente de IA clicar em um link

A OpenAI detalhou um risco de segurança específico para agentes: exfiltração de dados baseada em URL — onde um atacante engana uma IA para que ela carregue uma URL que incorpora silenciosamente informações privadas na string de consulta. Mesmo que o modelo nunca revele o segredo, a própria requisição pode vazá-lo. Uma tática desagradável e surpreendentemente rudimentar.

A solução encontrada é uma regra simples, porém eficaz: os agentes devem buscar automaticamente apenas URLs que já sejam públicas e cuja existência seja comprovada por meio de um índice web independente. Se um link não for verificado como público, o sistema deve reduzir a velocidade e devolver o controle ao usuário com avisos — uma fricção intencional, mas do tipo positivo.

🇪🇺 O próximo capítulo da IA ​​na UE

A OpenAI publicou um plano estratégico focado na UE que define um problema de "excesso de capacidade" — os modelos podem fazer mais do que as pessoas e as empresas os utilizam atualmente, e essa lacuna acarreta o risco de ganhos desiguais entre os países. É como ter um carro de corrida e só usá-lo para ir à padaria da esquina... só que a padaria da esquina é toda a sua economia.

Paralelamente à retórica, existem medidas concretas: um programa que visa capacitar milhares de PMEs europeias em competências de IA, uma subvenção vinculada à pesquisa sobre segurança e bem-estar da juventude e uma postura ampliada de "trabalho conjunto com governos". É em parte um memorando político, em parte uma campanha de adoção — e sim, essas duas coisas se confundem.

🔐 Riscos da IA ​​e Governança Cibernética: o Perfil de IA Cibernética do NIST (em versão preliminar)

Um novo perfil preliminar do NIST (baseado na análise de um artigo de um escritório de advocacia) concentra-se em como as organizações devem integrar a IA à governança cibernética — tanto na segurança dos próprios sistemas de IA quanto no uso da IA ​​para aprimorar a defesa cibernética. Voluntário no papel, mas o "voluntário" tende a se tornar esperado com o tempo.

Os grupos de trabalho abordam temas como a segurança de componentes de IA e a implementação de defesas baseadas em IA, incluindo considerações sobre a cadeia de suprimentos e a automação semelhante a agentes em fluxos de trabalho de resposta. A ideia central é: trate a IA como uma nova superfície de ataque e um novo conjunto de ferramentas, sem fingir que essas duas coisas se anulam.

Perguntas frequentes

O que é o AlphaGenome da DeepMind e qual problema ele está tentando resolver?

O AlphaGenome é um sistema de IA que, segundo a DeepMind, consegue prever como as mutações do DNA afetam a regulação gênica — quando os genes são ativados, onde isso acontece e com que intensidade. Ele foi desenvolvido para analisar grandes extensões de DNA de uma só vez, incluindo as regiões não codificantes, notoriamente difíceis de interpretar. O objetivo é ajudar os pesquisadores a identificar quais mutações têm maior probabilidade de causar doenças, para que os testes em laboratório possam se concentrar nas pistas mais promissoras.

Como a AlphaGenome poderia ajudar os pesquisadores a encontrar mais rapidamente os fatores genéticos responsáveis ​​por doenças?

Em muitos fluxos de trabalho de genética, o gargalo reside na redução de enormes listas de variantes àquelas que plausivelmente alteram a atividade gênica. A promessa da AlphaGenome é reduzir essa incerteza, prevendo como mutações específicas podem alterar a regulação em longas sequências de DNA. Se essas previsões se confirmarem, as equipes poderão priorizar experimentos em torno das variantes com maior probabilidade de estarem ligadas ao risco de câncer ou a condições hereditárias complexas, dedicando menos tempo a becos sem saída.

A adoção da IA ​​realmente custará empregos no Reino Unido, e quais funções estão mais em risco?

A secretária de Tecnologia do Reino Unido, Liz Kendall, afirmou que a adoção da IA ​​causará perda de empregos e destacou a preocupação em relação às vagas para recém-formados. Ela mencionou especificamente áreas como direito e finanças, onde as tarefas iniciais de carreira podem ser mais automatizadas. Ao mesmo tempo, o governo está enfatizando a adaptação por meio de treinamento em larga escala em habilidades básicas de IA, reconhecendo que a transição pode parecer desigual, mesmo que novas funções surjam.

Editores do Reino Unido podem optar por não participar dos Panoramas de IA do Google sem perder posições no ranking de busca?

Os órgãos reguladores da concorrência do Reino Unido propuseram mudanças que permitiriam aos editores optar por não ter seu conteúdo usado nos Resumos de IA do Google — ou para treinar modelos de IA independentes — sem serem penalizados nos rankings de busca padrão. O objetivo é reequilibrar o poder à medida que os resumos de IA alteram o comportamento de cliques. O Google sinalizou que está considerando mais controles, ao mesmo tempo que alertou para o risco de uma experiência de busca fragmentada.

Como um agente de IA pode vazar dados privados apenas clicando em um link?

A OpenAI descreveu um risco de exfiltração de dados baseado em URLs, no qual um atacante induz um agente de IA a buscar um link que, silenciosamente, incorpora informações sensíveis na string de consulta. Mesmo que o modelo nunca repita o segredo em sua saída, a própria requisição pode transmiti-lo. Uma mitigação comum é adicionar "fricção deliberada", como avisos e a exigência de confirmação do usuário quando um link não for verificado independentemente como público.

O que é o Perfil de IA Cibernética Preliminar do NIST e como ele altera a governança cibernética?

Um perfil preliminar do NIST (discutido por meio de uma análise jurídica) define a IA como algo a ser protegido e também como algo a ser usado na defesa cibernética. Ele agrupa o trabalho em temas como a segurança de componentes de IA, a mitigação de riscos na cadeia de suprimentos e a implementação de defesas baseadas em IA — incluindo fluxos de trabalho de resposta mais automatizados e semelhantes a agentes. Embora sejam voluntárias em sua essência, estruturas como essa frequentemente se tornam expectativas de fato, pressionando as organizações a incorporar formalmente a IA em sua governança e controles.

Notícias de IA de ontem: 27 de janeiro de 2026

Encontre a IA mais recente na loja oficial do AI Assistant

Sobre nós

Voltar ao blog