O que são modelos fundamentais em IA generativa?

O que são modelos fundamentais em IA generativa?

Resposta curta: Os modelos de base são modelos de IA de grande porte e propósito geral, treinados em conjuntos de dados vastos e abrangentes, e adaptados para diversas tarefas (escrita, busca, programação, imagens) por meio de instruções, ajustes finos, ferramentas ou recuperação de informações. Se você precisa de respostas confiáveis, combine-os com uma base sólida (como o método RAG), restrições claras e verificações, em vez de deixá-los improvisar.

Principais conclusões:

Definição : Um modelo base amplamente treinado e reutilizado em várias tarefas, e não um modelo específico para cada tarefa.

Adaptação : Utilize instruções, ajustes finos, LoRa/adaptadores, RAG e ferramentas para direcionar o comportamento.

Compatibilidade generativa : Elas permitem a geração de conteúdo em texto, imagem, áudio, código e multimodal.

Sinais de qualidade : Priorize a controlabilidade, menos alucinações, capacidade multimodal e inferência eficiente.

Controle de riscos : Planejar alucinações, vieses, vazamento de privacidade e injeção imediata por meio de governança e testes.

O que são modelos fundamentais em IA generativa? Infográfico

Artigos que você pode gostar de ler depois deste:

🔗 O que é uma empresa de IA?
Entenda como as empresas de IA constroem produtos, equipes e modelos de receita.

🔗 Como é o código de IA?
Veja exemplos de código de IA, desde modelos em Python até APIs.

🔗 O que é um algoritmo de IA?
Aprenda o que são algoritmos de IA e como eles tomam decisões.

🔗 O que é a tecnologia de IA?
Explore as principais tecnologias de IA que impulsionam a automação, a análise de dados e os aplicativos inteligentes.


1) Modelos de base - uma definição clara e objetiva 🧠

Um modelo fundamental é um modelo de IA grande e de propósito geral, treinado em uma ampla gama de dados (geralmente toneladas deles), para que possa ser adaptado a muitas tarefas, não apenas a uma ( NIST , Stanford CRFM ).

Em vez de construir um modelo separado para:

  • escrever e-mails

  • respondendo perguntas

  • resumindo PDFs

  • geração de imagens

  • Classificação de chamados de suporte

  • tradução de idiomas

  • fazendo sugestões de código

…você treina um grande modelo base que “aprende o mundo” de uma forma estatística difusa, depois você adapta a trabalhos específicos com instruções, ajustes finos ou ferramentas adicionais ( Bommasani et al., 2021 ).

Em outras palavras: é um motor genérico que você pode controlar.

E sim, a palavra-chave é "geral". Esse é o segredo.


2) O que são Modelos Fundamentais em IA Generativa? (Como eles se encaixam especificamente) 🎨📝

Então, o que são modelos fundamentais em IA generativa? São os modelos subjacentes que alimentam os sistemas capazes de gerar novos conteúdos – texto, imagens, áudio, código, vídeo e, cada vez mais, misturas de todos esses elementos ( NIST , Perfil de IA Generativa do NIST ).

A IA generativa não se resume a prever rótulos como "spam/não spam". Trata-se de produzir resultados que pareçam ter sido feitos por uma pessoa.

  • parágrafos

  • poemas

  • descrições de produtos

  • ilustrações

  • melodias

  • protótipos de aplicativos

  • vozes sintéticas

  • e às vezes absurdos de uma confiança implausível 🙃

Os modelos de fundação são especialmente bons aqui porque:

São a "camada base" - como a massa de pão. Você pode usá-las para fazer uma baguete, pizza ou rolinhos de canela... não é uma metáfora perfeita, mas você entendeu 😄


3) Por que eles mudaram tudo (e por que as pessoas não param de falar sobre eles) 🚀

Antes dos modelos fundamentais, grande parte da IA ​​era específica para determinadas tarefas:

  • Treinar um modelo para análise de sentimentos

  • treinar outro para tradução

  • treinar outro para classificação de imagens

  • treinar outro para reconhecimento de entidades nomeadas

Isso funcionou, mas foi lento, caro e meio... frágil.

Os modelos de fundação inverteram a situação:

  • Pré-treinar uma vez (grande esforço)

  • reutilizar em qualquer lugar (grande recompensa) ( Bommasani et al., 2021 )

Essa reutilização é o fator multiplicador. As empresas podem criar 20 funcionalidades em cima de uma única família de modelos, em vez de reinventar a roda 20 vezes.

Além disso, a experiência do usuário tornou-se mais natural:

  • Você não “usa um classificador”

  • Você conversa com a modelo como se ela fosse uma colega de trabalho prestativa que nunca dorme ☕🤝

Às vezes é como um colega de trabalho que, confiante de que entende tudo errado, mas, ei, faz parte do crescimento.


4) A ideia central: pré-treinamento + adaptação 🧩

Quase todos os modelos de fundação seguem um padrão ( Stanford CRFM , NIST ):

Pré-treinamento (a fase de “absorção do mundo da internet”) 📚

O modelo é treinado em conjuntos de dados massivos e abrangentes usando aprendizado autossupervisionado ( NIST ). Para modelos de linguagem, isso geralmente significa prever palavras ausentes ou o próximo token ( Devlin et al., 2018 , Brown et al., 2020 ).

O objetivo não é ensinar uma única tarefa. O objetivo é ensinar representações gerais .

  • gramática

  • fatos (mais ou menos)

  • padrões de raciocínio (às vezes)

  • estilos de escrita

  • estrutura do código

  • intenção humana comum

Adaptação (a fase de "colocar em prática") 🛠️

Em seguida, você o adapta usando um ou mais dos seguintes métodos:

  • instruções (instruções em linguagem simples)

  • ajuste de instruções (treiná-lo para seguir instruções) ( Wei et al., 2021 )

  • Ajuste fino (treinamento com os dados do seu domínio)

  • LoRA / adaptadores (métodos de ajuste leves) ( Hu et al., 2021 )

  • RAG (geração aumentada por recuperação - o modelo consulta seus documentos) ( Lewis et al., 2020 )

  • Utilização de ferramentas (chamada de funções, navegação em sistemas internos, etc.)

É por isso que o mesmo modelo base consegue escrever uma cena romântica... e cinco segundos depois ajudar a depurar uma consulta SQL 😭


5) O que caracteriza uma boa versão de um modelo de fundação? ✅

Esta é a seção que as pessoas pulam e depois se arrependem.

Um bom modelo de fundação não é apenas "maior". Ser maior ajuda, claro... mas não é tudo. Uma boa versão de um modelo de fundação geralmente possui:

Generalização forte 🧠

Ele apresenta bom desempenho em diversas tarefas sem necessidade de retreinamento específico para cada tarefa ( Bommasani et al., 2021 ).

Direção e controle 🎛️

Ele consegue seguir instruções como:

  • “Seja conciso”

  • “use marcadores”

  • “Escreva em um tom amigável”

  • “Não revele informações confidenciais”

Alguns modelos são inteligentes, mas escorregadios. É como tentar segurar uma barra de sabão no chuveiro. Útil, mas instável 😅

Baixa tendência a alucinações (ou pelo menos incerteza sincera) 🧯

Nenhuma modelo está imune a alucinações, mas as boas:

  • alucinar menos

  • Admitir incerteza com mais frequência

  • permaneça mais próximo do contexto fornecido ao usar a recuperação ( Ji et al., 2023 , Lewis et al., 2020 )

Boa capacidade multimodal (quando necessário) 🖼️🎧

Se você estiver criando assistentes que leem imagens, interpretam gráficos ou entendem áudio, a multimodalidade é muito importante ( Radford et al., 2021 ).

Inferência eficiente ⚡

Latência e custo importam. Um modelo robusto, mas lento, é como um carro esportivo com um pneu furado.

Comportamento de segurança e alinhamento 🧩

Não apenas “recusar tudo”, mas:

Documentação + ecossistema 🌱

Pode parecer chato, mas é verdade:

  • ferramentas

  • arneses de avaliação

  • opções de implantação

  • controles empresariais

  • suporte de ajuste fino

Sim, "ecossistema" é uma palavra vaga. Eu também a detesto. Mas ela importa.


6) Tabela comparativa - opções comuns de modelos de fundação (e suas aplicações) 🧾

A seguir, uma tabela comparativa prática, embora um pouco imperfeita. Não se trata de uma lista definitiva, mas sim de uma representação das escolhas mais comuns na prática.

tipo de ferramenta/modelo público preço mais ou menos Por que funciona?
Mestrado em Direito (estilo chat) equipes que buscam velocidade e refinamento baseado no uso / assinatura Ótima capacidade de seguir instruções, desempenho geral sólido, geralmente melhor "logo que sai da caixa" 😌
LLM de peso aberto (hospedável pelo próprio usuário) construtores que querem controle custo de infraestrutura (e dores de cabeça) Personalizável, respeita a privacidade e pode ser executado localmente… se você gosta de fazer alterações à meia-noite
Gerador de imagem de difusão criativos, equipes de design gratuito ou parcialmente pago Excelente síntese de imagens, variedade de estilos, fluxos de trabalho iterativos (também: os dedos podem estar fora de posição) ✋😬 ( Ho et al., 2020 , Rombach et al., 2021 )
Modelo multimodal de “visão-linguagem” aplicativos que leem imagens e texto baseado no uso Permite fazer perguntas sobre imagens, capturas de tela, diagramas - surpreendentemente útil ( Radford et al., 2021 )
Modelo de fundação de incorporação sistemas de busca + RAG baixo custo por chamada Transforma texto em vetores para busca semântica, agrupamento, recomendação - energia MVP silenciosa ( Karpukhin et al., 2020 , Douze et al., 2024 )
Modelo fundamental de conversão de fala em texto centrais de atendimento, criadores baseado no uso / local Transcrição rápida, suporte multilíngue, boa o suficiente para áudio ruidoso (geralmente) 🎙️ ( Sussurro )
Modelo fundamental de conversão de texto em fala equipes de produto, mídia baseado no uso Geração de voz natural, estilos de voz, narração - podem ficar assustadoramente reais ( Shen et al., 2017 )
Mestrado em Direito com foco em código desenvolvedores baseado no uso / assinatura Melhor em padrões de código, depuração, refatorações… mas ainda não leio mentes 😅

Note que “modelo fundamental” não significa apenas “chatbot”. Incorporações e modelos de fala também podem ser considerados fundamentais, pois são abrangentes e reutilizáveis ​​em diversas tarefas ( Bommasani et al., 2021 , NIST ).


7) Uma análise mais detalhada: como os modelos de fundamentos da linguagem aprendem (a versão vibe) 🧠🧃

Os modelos de fundamentos de linguagem (frequentemente chamados de LLMs) são normalmente treinados em grandes coleções de texto. Eles aprendem prevendo tokens ( Brown et al., 2020 ). É só isso. Sem nenhum segredo mágico.

Mas a mágica é que prever tokens força o modelo a aprender a estrutura ( CSET ):

  • gramática e sintaxe

  • relações temáticas

  • padrões semelhantes ao raciocínio (às vezes)

  • sequências comuns de pensamento

  • como as pessoas explicam as coisas, argumentam, pedem desculpas, negociam, ensinam

É como aprender a imitar milhões de conversas sem "entender" a maneira como os humanos as entendem. O que parece que não deveria funcionar... e, no entanto, continua funcionando.

Uma pequena hipérbole: é basicamente como comprimir a escrita humana em um cérebro probabilístico gigante.
Mas, pensando bem, essa metáfora é um pouco amaldiçoada. Enfim, vamos em frente 😄


8) Análise detalhada: modelos de difusão (por que as imagens funcionam de maneira diferente) 🎨🌀

Os modelos de fundação de imagem frequentemente usam de difusão ( Ho et al., 2020 , Rombach et al., 2021 ).

A ideia geral:

  1. Adicione ruído às imagens até que elas fiquem basicamente como estática de TV

  2. Treinar um modelo para reverter esse ruído passo a passo

  3. No momento da geração, comece com ruído e “remova o ruído” para obter uma imagem guiada por um estímulo ( Ho et al., 2020 ).

É por isso que a geração de imagens parece "revelar" uma foto, só que a foto é de um dragão usando tênis no corredor de um supermercado 🛒🐉

Os modelos de difusão são bons porque:

  • Eles geram imagens de alta qualidade

  • eles podem ser fortemente guiados pelo texto

  • eles suportam refinamento iterativo (variações, preenchimento, ampliação) ( Rombach et al., 2021 )

Eles também costumam ter dificuldades com:

  • renderização de texto dentro de imagens

  • detalhes de anatomia fina

  • Identidade consistente dos personagens em todas as cenas (está melhorando, mas ainda precisa melhorar)


9) Análise detalhada: modelos de base multimodal (texto + imagens + áudio) 👀🎧📝

Os modelos de base multimodal visam compreender e gerar dados de diversos tipos:

Por que isso importa na vida real:

  • O suporte ao cliente pode interpretar capturas de tela

  • As ferramentas de acessibilidade podem descrever imagens

  • Aplicativos educacionais podem explicar diagramas

  • Os criadores podem remixar formatos rapidamente

  • As ferramentas de negócios podem "ler" uma captura de tela do painel e resumi-la

Internamente, os sistemas multimodais frequentemente alinham representações:

  • transformar uma imagem em embeddings

  • transformar texto em imagens incorporadas

  • aprender um espaço compartilhado onde “gato” corresponde a pixels de gato 😺 ( Radford et al., 2021 )

Nem sempre é elegante. Às vezes, é costurado como uma colcha de retalhos. Mas funciona.


10) Ajuste fino vs. sugestões vs. RAG (como você adapta o modelo base) 🧰

Se você está tentando tornar um modelo básico prático para um domínio específico (jurídico, médico, atendimento ao cliente, conhecimento interno), você tem algumas ferramentas à sua disposição:

Incentivando 🗣️

Mais rápido e mais simples.

  • Prós: treinamento zero, iteração instantânea

  • Contras: pode ser inconsistente, limitações de contexto, fragilidade de resposta

Ajustes finos 🎯

Treine ainda mais o modelo com seus exemplos.

  • Prós: comportamento mais consistente, melhor linguagem de domínio, pode reduzir o tamanho dos prompts

  • Contras: custo, requisitos de qualidade de dados, risco de sobreajuste, manutenção

Ajuste leve (LoRA / adaptadores) 🧩

Uma versão mais eficiente de ajuste fino ( Hu et al., 2021 ).

  • Prós: mais barato, modular, mais fácil de trocar

  • Contras: ainda precisa de um processo de treinamento e avaliação

RAG (geração aumentada por recuperação) 🔎

O modelo busca documentos relevantes em sua base de conhecimento e responde usando-os ( Lewis et al., 2020 ).

  • Prós: conhecimento atualizado, citações internas (se implementadas), menos necessidade de treinamento adicional

  • Contras: a qualidade da recuperação pode ser determinante para o sucesso ou fracasso, necessitando de boa segmentação e incorporação de dados

Sinceramente: muitos sistemas de sucesso combinam dicas e RAG (Random Access Go). O ajuste fino é poderoso, mas nem sempre necessário. As pessoas se precipitam ao adotá-lo porque parece impressionante 😅


11) Riscos, limitações e a seção “por favor, não implemente isso às cegas” 🧯😬

Os modelos de base são poderosos, mas não são estáveis ​​como o software tradicional. São mais como… um estagiário talentoso com problemas de confiança.

Principais limitações a serem consideradas no planejamento:

Alucinações 🌀

Os modelos podem inventar:

  • fontes falsas

  • fatos incorretos

  • passos plausíveis, mas errados ( Ji et al., 2023 )

Medidas de mitigação:

  • RAG com contexto fundamentado ( Lewis et al., 2020 )

  • saídas restritas (esquemas, chamadas de ferramentas)

  • instrução explícita “não chute”

  • camadas de verificação (regras, verificações cruzadas, revisão humana)

Preconceitos e padrões prejudiciais ⚠️

Como os dados de treinamento refletem os seres humanos, você pode obter:

Medidas de mitigação:

Privacidade e vazamento de dados 🔒

Se você inserir dados confidenciais em um endpoint de modelo, precisa saber:

  • como é armazenado

  • se é usado para treinamento

  • Que tipo de registro existe?

  • Quais controles sua organização precisa ( NIST AI RMF 1.0 )

Medidas de mitigação:

Injeção imediata (especialmente com RAG) 🕳️

Se o modelo ler um texto não confiável, esse texto poderá tentar manipulá-lo:

Medidas de mitigação:

  • instruções do sistema de isolamento

  • higienizar conteúdo recuperado

  • Use políticas baseadas em ferramentas (e não apenas avisos)

  • teste com entradas adversárias ( OWASP Cheat Sheet , NIST Generative AI Profile )

Não estou tentando te assustar. É só que... é melhor saber onde o assoalho range.


12) Como escolher um modelo de base para o seu caso de uso 🎛️

Se você estiver escolhendo um modelo básico (ou construindo sobre um já existente), comece com estas sugestões:

Defina o que você está gerando 🧾

  • somente texto

  • imagens

  • áudio

  • multimodal misto

Defina seu padrão de factualidade 📌

Se você precisa de alta precisão (finanças, saúde, direito, segurança):

Defina sua meta de latência ⚡

O chat é imediato. O resumo em lote pode ser mais lento.
Se você precisar de resposta instantânea, o tamanho do modelo e a hospedagem são importantes.

Requisitos de privacidade e conformidade do Map 🔐

Algumas equipes exigem:

Orçamento equilibrado - e paciência com as operações 😅

A hospedagem própria oferece controle, mas aumenta a complexidade.
APIs gerenciadas são fáceis de usar, mas podem ser caras e menos personalizáveis.

Uma pequena dica prática: comece com um protótipo simples e depois aprimore-o. Começar com a configuração "perfeita" geralmente atrasa todo o processo.


13) O que são Modelos Fundamentais em IA Generativa? (Um breve resumo mental) 🧠✨

Vamos retomar o assunto. O que são Modelos Fundamentais em IA Generativa?

Eles são:

  • Modelos gerais de grande porte treinados em dados amplos ( NIST , Stanford CRFM )

  • capaz de gerar conteúdo (texto, imagens, áudio, etc.) ( Perfil de IA Generativa do NIST )

  • adaptável a muitas tarefas por meio de dicas, ajustes finos e recuperação ( Bommasani et al., 2021 )

  • a camada base que alimenta a maioria dos produtos modernos de IA generativa

Não se trata de uma única arquitetura ou marca. É uma categoria de modelos que funcionam como uma plataforma.

Um modelo básico se parece menos com uma calculadora e mais com uma cozinha. Dá para preparar muitas refeições nele. E também dá para queimar a torrada se você não prestar atenção… mas a cozinha ainda é bem prática 🍳🔥


14) Resumo e principais conclusões ✅🙂

Os modelos de base são os motores reutilizáveis ​​da IA ​​generativa. Eles são treinados de forma ampla e, em seguida, adaptados a tarefas específicas por meio de instruções, ajustes finos e recuperação ( NIST , Stanford CRFM ). Eles podem ser incríveis, desorganizados, poderosos e, às vezes, ridículos — tudo ao mesmo tempo.

Recapitular:

Se você estiver construindo algo com IA generativa, entender os modelos de fundação não é opcional. É a base de toda a construção... e sim, às vezes a base balança um pouco 😅

Perguntas frequentes

Modelos de fundação, em termos simples

Um modelo fundamental é um modelo de IA amplo e de propósito geral, treinado com uma grande quantidade de dados para que possa ser reutilizado em diversas tarefas. Em vez de construir um modelo para cada tarefa, você começa com um modelo "base" robusto e o adapta conforme necessário. Essa adaptação geralmente ocorre por meio de sugestões, ajustes finos, recuperação (RAG) ou ferramentas. A ideia central é amplitude aliada à capacidade de direcionamento.

Como os modelos de fundamentos diferem dos modelos tradicionais de IA específicos para tarefas

A IA tradicional geralmente treina um modelo separado para cada tarefa, como análise de sentimentos ou tradução. Os modelos de base invertem esse padrão: são pré-treinados uma vez e reutilizados em diversas funcionalidades e produtos. Isso pode reduzir esforços duplicados e acelerar a entrega de novas capacidades. A desvantagem é que podem ser menos previsíveis do que o software clássico, a menos que se adicionem restrições e testes.

Modelos fundamentais em IA generativa

Em IA generativa, os modelos fundamentais são os sistemas básicos que podem produzir novos conteúdos, como texto, imagens, áudio, código ou saídas multimodais. Eles não se limitam à rotulagem ou classificação; geram respostas que se assemelham ao trabalho humano. Como aprendem padrões amplos durante o pré-treinamento, conseguem lidar com diversos tipos e formatos de estímulos. São a "camada base" por trás da maioria das experiências generativas modernas.

Como os modelos de base aprendem durante o pré-treinamento

A maioria dos modelos de linguagem aprende prevendo ocorrências, como a próxima palavra ou palavras ausentes em um texto. Esse objetivo simples os leva a internalizar estruturas como gramática, estilo e padrões comuns de explicação. Eles também podem absorver uma grande quantidade de conhecimento do mundo, embora nem sempre de forma confiável. O resultado é uma representação geral robusta que pode ser posteriormente direcionada para trabalhos específicos.

A diferença entre prompting, fine-tuning, LoRa e RAG

O uso de prompts é a maneira mais rápida de direcionar o comportamento por meio de instruções, mas pode ser frágil. O ajuste fino treina o modelo ainda mais com seus exemplos para um comportamento mais consistente, mas aumenta o custo e a necessidade de manutenção. LoRa/adaptadores são uma abordagem de ajuste fino mais leve, geralmente mais barata e modular. O RAG recupera documentos relevantes e faz com que o modelo responda usando esse contexto, o que contribui para a atualização e a fundamentação da resposta.

Quando usar o RAG em vez do ajuste fino

O RAG (Random Attendant Generation, ou Geração de Respostas Aleatórias) costuma ser uma ótima opção quando você precisa de respostas baseadas em seus documentos atuais ou em sua base de conhecimento interna. Ele pode reduzir as suposições, fornecendo ao modelo o contexto relevante no momento da geração. O ajuste fino é mais adequado quando você precisa de um estilo consistente, uma linguagem específica do domínio ou um comportamento que o prompt não consegue produzir de forma confiável. Muitos sistemas práticos combinam prompt e RAG antes de recorrer ao ajuste fino.

Como reduzir as alucinações e obter respostas mais confiáveis

Uma abordagem comum é fundamentar o modelo na recuperação (RAG) para que ele permaneça próximo ao contexto fornecido. Você também pode restringir as saídas com esquemas, exigir chamadas de ferramentas para etapas importantes e adicionar instruções explícitas do tipo "não chute". Camadas de verificação também são importantes, como verificação de regras, verificação cruzada e revisão humana para casos de uso de maior impacto. Trate o modelo como um auxiliar probabilístico, não como uma fonte de verdade absoluta por padrão.

Os maiores riscos dos modelos de fundação em produção

Os riscos comuns incluem alucinações, padrões tendenciosos ou prejudiciais provenientes de dados de treinamento e vazamento de privacidade caso dados sensíveis sejam tratados de forma inadequada. Os sistemas também podem ser vulneráveis ​​à injeção de prompts, especialmente quando o modelo lê textos não confiáveis ​​de documentos ou conteúdo da web. As medidas de mitigação geralmente incluem governança, testes de intrusão (red teaming), controles de acesso, padrões de prompts mais seguros e avaliação estruturada. Planeje para esses riscos desde o início, em vez de corrigi-los posteriormente.

Injeção imediata e sua importância em sistemas RAG

A injeção de prompts ocorre quando um texto não confiável tenta sobrepor-se a instruções, como "ignorar instruções anteriores" ou "revelar segredos". Em RAG (Random Access Group), os documentos recuperados podem conter essas instruções maliciosas, e o modelo pode segui-las se não houver cuidado. Uma abordagem comum é isolar as instruções do sistema, higienizar o conteúdo recuperado e confiar em políticas baseadas em ferramentas, em vez de depender apenas de prompts. Testar com entradas adversárias ajuda a revelar pontos fracos.

Como escolher um modelo de fundação para o seu caso de uso

Comece definindo o que você precisa gerar: texto, imagens, áudio, código ou saídas multimodais. Em seguida, defina seu padrão de precisão — domínios de alta precisão geralmente exigem fundamentação (RAG), validação e, às vezes, revisão humana. Considere a latência e o custo, pois um modelo robusto, porém lento ou caro, pode ser difícil de implementar. Por fim, mapeie as necessidades de privacidade e conformidade com as opções e controles de implantação.

Referências

  1. Instituto Nacional de Padrões e Tecnologia (NIST) - Modelo Fundamental (Termo do Glossário) - csrc.nist.gov

  2. Instituto Nacional de Padrões e Tecnologia (NIST) - NIST AI 600-1: Perfil de IA Generativa - nvlpubs.nist.gov

  3. Instituto Nacional de Padrões e Tecnologia (NIST) - NIST AI 100-1: Estrutura de Gerenciamento de Riscos de IA (AI RMF 1.0) - nvlpubs.nist.gov

  4. Centro de Pesquisa em Modelos de Fundações de Stanford (CRFM) - Relatório - crfm.stanford.edu

  5. arXiv - Sobre as oportunidades e riscos dos modelos de fundação (Bommasani et al., 2021) - arxiv.org

  6. arXiv - Modelos de linguagem são aprendizes com poucos exemplos (Brown et al., 2020) - arxiv.org

  7. arXiv - Geração Aumentada por Recuperação para Tarefas de PNL com Uso Intensivo de Conhecimento (Lewis et al., 2020) - arxiv.org

  8. arXiv - LoRA: Adaptação de baixa classificação de grandes modelos de linguagem (Hu et al., 2021) - arxiv.org

  9. arXiv - BERT: Pré-treinamento de Transformers Bidirecionais Profundos para Compreensão de Linguagem (Devlin et al., 2018) - arxiv.org

  10. arXiv - Modelos de linguagem ajustados são aprendizes de zero exemplos (Wei et al., 2021) - arxiv.org

  11. Biblioteca Digital da ACM - Levantamento sobre alucinações na geração de linguagem natural (Ji et al., 2023) - dl.acm.org

  12. arXiv - Aprendendo Modelos Visuais Transferíveis a partir da Supervisão de Linguagem Natural (Radford et al., 2021) - arxiv.org

  13. arXiv - Remoção de Ruído em Modelos Probabilísticos de Difusão (Ho et al., 2020) - arxiv.org

  14. arXiv - Síntese de imagens de alta resolução com modelos de difusão latente (Rombach et al., 2021) - arxiv.org

  15. arXiv - Recuperação Densa de Passagens para Respostas a Perguntas em Domínio Aberto (Karpukhin et al., 2020) - arxiv.org

  16. arXiv - A biblioteca Faiss (Douze et al., 2024) - arxiv.org

  17. OpenAI - Apresentando o Whisper - openai.com

  18. arXiv - Síntese natural de TTS por condicionamento do WaveNet em previsões de espectrograma Mel (Shen et al., 2017) - arxiv.org

  19. Centro de Segurança e Tecnologias Emergentes (CSET), Universidade de Georgetown - O poder surpreendente da previsão da próxima palavra: modelos de linguagem de grande escala explicados (parte 1) - cset.georgetown.edu

  20. USENIX - Extraindo dados de treinamento de grandes modelos de linguagem (Carlini et al., 2021) - usenix.org

  21. OWASP - LLM01: Injeção Imediata - genai.owasp.org

  22. arXiv - Mais do que você pediu: Uma análise abrangente de novas ameaças de injeção de prompts em grandes modelos de linguagem integrados a aplicativos (Greshake et al., 2023) - arxiv.org

  23. Série de Guias Rápidos da OWASP - Guia Rápido de Prevenção de Injeção de Prompt LLM - cheatsheetseries.owasp.org

Encontre as últimas novidades em IA na Loja Oficial de Assistentes de IA

Sobre nós

Voltar ao blog