|
生成式大模型安全与隐私白皮书
版权归之江实验室所有
《生成式大模型安全与隐私白皮书》前言
OpenAI 于 2022 年 11 月 30 日开放测试 ChatGPT,此后 ChatGPT 风靡全球,在 1 月份的访问量约为 5.9 亿。 AI 驱动的聊天机器人 ChatGPT 成为互联网发展二十年来增长速度最快的消费者应用程序。 ChatGPT 和 GPT4 的诞生引发了生成式大模型的研发热潮,显示了人类迈向通用人工智能(AGI)的可能性。但在其备受追捧的同时, ChatGPT 等生成式大模型也面临 AI 自身数据和模型方面的安全隐患。
我们应该意识到,在生成式大模型带来各种革命性的技术进步的同时,其自身带来的一系列安全与隐私问题也值得我们注意,例如引发的数据泄漏,助长虚假信息传播等。在本白皮书中,我们首先总结了 ChatGPT 与 GPT4等生成式大模型模型的发展历程,以及其带来的各种令人惊叹的能力和社会变革,社会应用等。
而后,我们归纳了 ChatGPT 与 GPT4 等生成式大模型中存在的安全与隐私问题,包括数据安全,模型使用安全,版权问题,伦理问题等。最后,我们为应对这些安全与隐私问题提出了相应的应对策略,重点强调了日后亟需进行的研究和法规调整等。特别是为之后 AGI 技术的持续革新,起到未雨绸缪的预防。
生成式大模型的发展之路
GPT(Generative Pre-trained Transformer)是一种基于 Transformer 模型的语言生成模型,由 OpenAI 团队开发。自 2018 年发布以来, GPT 系列模型已经成为自然语言处理领域的重要研究方向之一。图1概括了当前国内外有关 GPT 的研究现状。下面我们将先介绍 ChatGPT 与 GPT4 出现之前的模型,而后介绍 ChatGPT与 GPT4 的原理与特点,之后将列举在ChatGPT 与 GPT4 之后涌现的一系列代表性生成式大模型。
点击这里下载《生成式大模型安全与与隐私白皮书》
|
|