生成型预训练变换模型 3 (英语:Generative Pre-trained Transformer 3,简称 GPT-3)是一个自回归语言模型,目的是为了使用深度学习生成人类可以理解的自然语言。GPT-3是由在旧金山的人工智能公司OpenAI训练与开发,模型设计基于谷歌开发的变换语言模型。GPT-3的神经网络包含1750亿个参数,为有史以来参数最多的神经网络模型。OpenAI于2020年5月发表GPT-3的论文,在次月为少量公司与开发人团释出应用程序界面的测试版。微软在2020年9月22日宣布取得了GPT-3的独家授权。
GPT-3 可写出人类无法与电脑区别的文章与字串,GPT-3原始论文的作者们警告了GPT-3有可能对于社会的负面影响,比如利用制造假新闻的可能性。英国《卫报》即使用GPT-3生成了一个关于人工智能对人类无威胁的评论专栏。李开复称卷积神经网络与GPT-3为人工智能重要的改善,两者皆是模型加海量数据的成果。