🧯 A OpenAI está contratando um novo Chefe de Preparação para tentar prever e mitigar os danos da IA ↗
A OpenAI anunciou uma vaga para "Chefe de Preparação" - basicamente, a pessoa encarregada de imaginar os piores usos plausíveis de modelos de vanguarda e, em seguida, construir mecanismos de proteção que resistam à pressão (e não apenas indícios e PDFs de políticas).
A listagem enfatiza fortemente a modelagem, avaliação e mitigação de ameaças como um verdadeiro fluxo de trabalho operacional. É um trabalho de segurança apresentado como desenvolvimento de software — tranquilizador em um momento, ligeiramente arrepiante no seguinte, porque sugere que os riscos agora têm o formato do produto.
🧑⚖️ China divulga projeto de regras para regulamentar IA com interação semelhante à humana ↗
O órgão regulador de cibersegurança da China divulgou um projeto de regras voltado para serviços de IA que simulam personalidades humanas e envolvem emocionalmente os usuários — companheiros falantes, assistentes sedutores, toda aquela questão de "você é real?".
Um ponto que chama a atenção: os provedores precisariam alertar sobre o uso excessivo e intervir caso os usuários apresentem sinais de dependência ou vício. A mensagem é excepcionalmente explícita sobre o risco psicológico — como se alguém tivesse observado a tendência dos "amigos virtuais" e concluído: "Não sem cinto de segurança".
🧩 Adeus, GPT-5. Olá, Rainha ↗
A análise da Wired é que a Qwen está conquistando corações não por ser a melhor máquina do mercado, mas por ser leve e fácil de modificar — que, na prática, é o que os construtores continuam escolhendo. É a "ferramenta que você realmente pode usar", não aquela que fica escondida atrás de uma corda de veludo.
O artigo enquadra isso como uma mudança mais ampla: modelos abertos que se encaixam perfeitamente nos produtos (e são ajustados internamente) podem ser mais importantes do que ganhos marginais em rankings. Um pouco polêmico, talvez até um pouco cruel com os laboratórios fechados… mas a ideia principal é convincente.
🎁 OpenAI e Anthropic dobram os limites de uso de IA em um incentivo para desenvolvedores durante o período de festas: tudo o que você precisa saber ↗
A OpenAI e a Anthropic aumentaram temporariamente os limites de uso de suas ferramentas voltadas para programação, dando aos assinantes individuais mais espaço para executar fluxos de trabalho mais pesados sem atingir imediatamente os limites.
A Mint observa que o aumento de desempenho é voltado para usuários avançados, e que as condições voltam ao normal após o período promocional. É um bom exemplo de "aqui está mais poder de processamento" — e também um lembrete discreto de que a capacidade ainda é uma limitação finita e tangível.
💻 Shane Legg, cofundador do Google DeepMind, estabelece a "regra do laptop" para identificar se a IA pode substituir seu emprego ↗
Shane Legg apresentou uma heurística direta: se uma tarefa pode ser realizada inteiramente por meio de um laptop (tela, teclado, microfone, câmera etc.), esse é o tipo de trabalho cognitivo em que a IA avançada pode operar cada vez mais.
Ele também fez algumas ressalvas, observando que alguns trabalhos "totalmente online" ainda dependem da conexão humana e da personalidade. Então, sim, a regra é rígida... mas não é uma guilhotina, e sim um alerta de tempestade.