Transformer架构:大模型背后的“大脑”
通俗类比:Transformer = 多线程处理语言。解析 Self-Attention,展示图解,避免过于枯燥的数学公式。
作者:帅旋
|
发表于 2025-03-07
|
分类于  AI
Transformer架构:大模型背后的“大脑”
大模型的进化史:从BERT到DeepSeek R1
在上一篇文章《自然语言处理(NLP)与生成式AI:机器如何“理解”人类语言?》中,我们系统梳理了NLP技术从规则系统到Transformer架构的范式迁移。本文将从技术演进视角,解析大语言模型(LLM)如何通过算法创新与工程突破实现能力跃迁。
作者:帅旋
|
发表于 2025-03-01
|
分类于  AI
大模型的进化史:从BERT到DeepSeek R1
1
×
IT宅

关注公众号及时获取网站内容更新。

请帅旋喝一杯咖啡

咖啡=电量,给帅旋充杯咖啡,他会满电写代码!

IT宅

关注公众号及时获取网站内容更新。