2020 年 6 月,OpenAI 發布了第三代生成式預訓練模型 GPT-3(Generative Pre-trained Transformer 3)。它擁有 1,750 億個參數,是當時規模最大的語言模型,瞬間在科技圈與創業圈引發熱烈討論。從新聞標題到 Twitter 創作,從程式碼生成到自動客服,GPT-3 展示了前所未有的「機器寫作」能力,也讓人第一次感受到 生成式 AI 從研究走向大眾應用的衝擊力。
1. 技術規模的質變
GPT-3 延續了 Transformer 架構與大規模語料預訓練的思路,但其 參數規模是 GPT-2 的 100 多倍。這種規模的擴張帶來了質變——模型在多數任務中不需要額外微調(fine-tuning),只需提供少量範例(few-shot learning)甚至零範例(zero-shot learning),就能生成高質量文本。
2. 多樣化能力:從寫作到編程
發布不久,開發者社群就發現 GPT-3 能夠:
- 撰寫文章、詩歌、故事,模仿不同文風
- 生成 HTML、CSS、JavaScript 程式碼
- 做基本的問答與摘要
- 創建對話機器人,甚至用自然語言生成 SQL 查詢
雖然輸出仍會出現事實錯誤或語義混亂,但它的語言流暢度與跨領域適應性,已足以支撐許多原型應用。
3. 工具與創業潮的引爆點
OpenAI 透過 API 提供 GPT-3 訪問權限,促成了大批基於 GPT-3 的應用誕生,例如:
- Copy.ai(行銷文案生成)
- Debuild(用自然語言生成 Web 應用)
- AI Dungeon(互動式冒險遊戲)
這種「模型即平台」的模式,讓開發者不必再自行訓練龐大模型,而是直接在 API 基礎上創新。
4. 爭議與挑戰
GPT-3 的火爆同時引發了對生成式 AI 的擔憂:
- 事實錯誤與幻覺(hallucination):模型有時會生成看似正確但完全捏造的內容。
- 偏見與歧視:訓練數據中的偏見會被放大,影響輸出內容。
- 濫用風險:自動生成假新聞、釣魚郵件等惡意用途的可能性。
這些問題也讓 AI 倫理與負責任 AI 的討論進入新階段。