Centro de Pesquisa
Os Artigos Que Definem a IA Moderna
A IA avança rápido. Estes são os artigos fundamentais que todo líder técnico deveria conhecer—curados e explicados para você se manter informado sem ler mais de 50 páginas.
Por Que Isso Importa
Você não precisa ser um pesquisador de ML para liderar iniciativas de IA. Mas entender as ideias centrais—mecanismos de atenção, geração aumentada por recuperação, técnicas de alinhamento—ajuda você a avaliar ferramentas, contratar talentos e tomar melhores decisões arquiteturais.
O Que Você Recebe
- •Essenciais curados — Os 10-15 artigos que moldaram LLMs, agentes e sistemas de recuperação
- •Resumos em linguagem simples — Insights-chave extraídos, sem necessidade de doutorado
- •Faça perguntas — Converse com nossa IA para explorar conceitos mais profundamente
A Coleção Essencial
Attention Is All You Need
Vaswani et al.
2017TransformerFoundationNLPGPT-4 Technical Report
OpenAI
2023LLMMultimodalBenchmarksLlama 2: Open Foundation and Fine-Tuned Chat Models
Touvron et al. (Meta)
2023Open SourceLLMFine-tuningLanguage Models are Few-Shot Learners
Brown et al.
2020LLMIn-Context LearningGPT-3Training Language Models to Follow Instructions
Ouyang et al.
2022RLHFAlignmentInstruction-followingChain-of-Thought Prompting Elicits Reasoning
Wei et al.
2022ReasoningPromptingChain-of-ThoughtLoRA: Low-Rank Adaptation of Large Language Models
Hu et al.
2021Fine-tuningEfficiencyPEFTDenoising Diffusion Probabilistic Models
Ho et al.
2020GenerativeVisionDiffusionDeep Residual Learning for Image Recognition
He et al.
2015VisionDeep LearningCNNGenerative Adversarial Nets
Goodfellow et al.
2014GenerativeAdversarialFoundationalDeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning
DeepSeek-AI
2025ReasoningReinforcement LearningOpen SourceOpenAI o1 System Card
Jaech et al. (OpenAI)
2024ReasoningTest-Time ComputeSafetyConstitutional AI: Harmlessness from AI Feedback
Bai et al. (Anthropic)
2022AlignmentRLHFSafetyScaling Laws for Neural Language Models
Kaplan et al. (OpenAI)
2020ScalingTrainingFundamentalsRetrieval-Augmented Generation for Knowledge-Intensive NLP Tasks
Lewis et al. (Meta AI)
2020RAGRetrievalKnowledge BasesToolformer: Language Models Can Teach Themselves to Use Tools
Schick et al. (Meta AI)
2023AgentsToolsFunction CallingMixtral of Experts
Jiang et al. (Mistral AI)
2024ArchitectureOpen SourceEfficiencyHighly Accurate Protein Structure Prediction with AlphaFold
Jumper et al. (DeepMind)
2021Scientific AIDeep LearningReal-World Impact
