全部 ♥ 收藏 36氪 - AI Anthropic Research Google AI Blog HackerNews Best Hugging Face Blog LangChain Blog Lilian Weng's Blog MIT Tech Review - AI OpenAI Blog The Verge - AI 机器之心 李沐 稚晖君 量子位
Lilian Weng's Blog ★★★★☆ 2025-05-01

Why We Think

推荐理由:涉及AI模型推理优化技术,属模型能力提升关键方向

文章探讨测试时计算(test-time compute)和思维链(CoT)如何提升模型性能,并综述近期关于有效利用“思考时间”的研究进展。

Lilian Weng's Blog ★★★★☆ 2024-11-28

Reward Hacking in Reinforcement Learning

推荐理由:涉及AI对齐与模型安全,影响AI产品落地可靠性

文章探讨强化学习中的奖励黑客问题,即智能体利用奖励函数漏洞获取高分却未完成真实任务。随着语言模型通过RLHF对齐训练广泛应用,该问题在AI模型自主应用中成为关键挑战。

Lilian Weng's Blog ★★★☆☆ 2024-07-07

Extrinsic Hallucinations in LLMs

推荐理由:涉及AI模型可靠性与事实一致性,属模型评测与改进范畴

文章探讨大语言模型中的外源性幻觉问题,即模型输出缺乏外部世界知识支撑的现象,并强调模型应具备事实准确性及对未知问题的诚实回应能力。

Lilian Weng's Blog ★★★★☆ 2024-04-12

Diffusion Models for Video Generation

推荐理由:涉及AI生成模型前沿进展,属热门AI技术方向

文章探讨扩散模型在视频生成中的应用,分析其相比图像生成的挑战,如时序一致性与高质量视频数据稀缺等问题。

Lilian Weng's Blog ★★★☆☆ 2024-02-05

Thinking about High-Quality Human Data

推荐理由:涉及AI模型训练核心要素——数据质量,与AI开发实践密切相关

文章探讨高质量人类标注数据对AI模型训练的重要性,尤其在分类任务和RLHF中的应用,并指出社区普遍重模型轻数据的问题。

Lilian Weng's Blog ★★★★☆ 2023-10-25

Adversarial Attacks on LLMs

推荐理由:涉及AI模型安全性及对抗攻击技术,属模型评测与应用风险范畴

文章探讨大语言模型(LLM)面临的对抗攻击与越狱提示风险,分析文本领域对抗攻击的挑战,并关联可控文本生成技术。

Lilian Weng's Blog ★★★★☆ 2023-06-23

LLM Powered Autonomous Agents

推荐理由:深入解析LLM智能体核心技术,含热门开源项目参考

文章介绍以大语言模型为核心的自主智能体系统架构,涵盖规划、记忆和工具使用三大组件,并列举AutoGPT等开源项目作为实例。

Lilian Weng's Blog ★★★★☆ 2023-03-15

Prompt Engineering

推荐理由:涵盖AI编程中关键的提示工程技巧,对使用AI辅助开发有实用价值

本文介绍提示工程(Prompt Engineering)的基本概念,聚焦于如何通过设计输入提示来引导大语言模型生成期望输出,而不修改模型权重,强调其在模型对齐与可控性中的作用。

Lilian Weng's Blog ★★★★☆ 2023-01-27

The Transformer Family Version 2.0

推荐理由:系统梳理主流Transformer模型演进,对AI模型开发者极具参考价值。

文章全面更新了Transformer架构的发展,涵盖近三年的重要改进,重构并扩充了2020年版本的内容,详述各类变体与技术细节。

Lilian Weng's Blog ★★★★☆ 2023-01-10

Large Transformer Model Inference Optimization

推荐理由:涉及AI模型推理优化技术,属模型服务部署关键问题

文章探讨大Transformer模型推理优化的挑战与方法,包括计算和内存瓶颈,并介绍蒸馏等技术以提升推理效率。

Lilian Weng's Blog ★★★☆☆ 2022-06-09

Generalized Visual Language Models

推荐理由:涉及多模态AI模型的技术实现,属于AI模型研究范畴

文章探讨如何扩展预训练的通用语言模型,使其能够处理视觉信号,以解决视觉语言任务,如图像描述和视觉问答。

Lilian Weng's Blog ★★★★☆ 2022-04-15

Learning with not Enough Data Part 3: Data Generation

推荐理由:涉及AI模型训练中的数据生成技巧,与AI工具和模型应用密切相关

文章探讨在数据不足时通过数据增强和预训练大模型生成合成数据的两种方法,涵盖文本与图像增强技术及少样本提示生成新数据的实践。

Lilian Weng's Blog ★★★☆☆ 2022-02-20

Learning with not Enough Data Part 2: Active Learning

推荐理由:涉及AI模型训练中的数据效率优化技术,属热门AI技能

本文介绍主动学习(Active Learning)方法,用于在标注预算有限的情况下,智能选择最有价值的样本进行人工标注,以提升监督学习模型性能。

Lilian Weng's Blog ★★★★☆ 2021-09-24

How to Train Really Large Models on Many GPUs?

推荐理由:涵盖大模型训练核心技术,对AI开发者有实用价值

文章综述了在多GPU上训练超大神经网络的关键技术,包括多种并行训练范式、模型架构优化和显存节省策略,并链接到OpenAI博客的升级版内容。

Lilian Weng's Blog ★★★★☆ 2021-07-11

What are Diffusion Models?

推荐理由:系统性介绍AI生成模型核心技术,对理解AIGC底层原理有重要价值

文章深入讲解扩散模型的原理、发展及关键技术,涵盖score-based生成建模、classifier-free guidance、latent diffusion等重要进展,并介绍GLIDE、Imagen、LDM等代表性模型。

Lilian Weng's Blog ★★★☆☆ 2021-05-31

Contrastive Representation Learning

推荐理由:介绍AI基础技术,对理解自监督学习有帮助

对比表示学习旨在构建嵌入空间,使相似样本靠近、不相似样本远离,广泛应用于视觉与语言任务的自监督学习中。

Lilian Weng's Blog ★★★★☆ 2021-03-21

Reducing Toxicity in Language Models

推荐理由:涉及AI模型安全与优化,属于模型评测与改进范畴

文章探讨降低语言模型毒性的三种方法:训练数据收集、毒性内容检测和模型去毒,旨在提升AI模型在现实应用中的安全性。

Lilian Weng's Blog ★★★★☆ 2021-01-02

Controllable Neural Text Generation

推荐理由:涵盖AI模型可控生成关键技术,与模型服务优化密切相关

文章综述了可控神经文本生成的多种技术路径,包括引导解码、提示设计(如P-tuning、Prompt Tuning)和微调方法等,旨在让大语言模型生成符合特定属性的内容。

Lilian Weng's Blog ★★★☆☆ 2020-10-29

How to Build an Open-Domain Question Answering System?

推荐理由:涉及AI模型应用与实践,契合AI工具与系统构建主题

文章介绍了构建开放域问答系统(ODQA)的常见方法,包括闭卷和开卷两种范式,并结合预训练语言模型及OpenAI API示例进行说明。

1 / 2 下一页 →