• 首页
  • 报告
  • 资讯
  • 快讯
  • 图表
  • 网址导航

安远AI&北京大学:2024基础模型的负责任开源-超越开源闭源的二元对立:负责任开源的内 ...

2024-5-10 17:28| 发布者: 刘火云 17 0

摘要: 1. 开源基础模型已成为创新的重要驱动力之一根据斯坦福大学《2024年AI指数报告》1,2023年全球总共发布了149个基础模型,比2022年发布的数量翻了一倍还多,而且更高比例是开源的。在这些新发布的模型中,有65.7%是开 ...
1. 开源基础模型已成为创新的重要驱动力之一根据斯坦福大学《2024年AI指数报告》1,2023年全球总共发布了149个基础模型,比2022年发布的数量翻了一倍还多,而且更高比例是开源的。

在这些新发布的模型中,有65.7%是开源的,相比之下,2022年只有44.4%,2021年只有33.3%的模型是开源的。

根据全球开源社区Hugging Face的调研2,Llama 1和Llama 2现在已经衍生出了3万个新模型。

多位专家预计,即将推出的Llama 3 400B将会是“首个GPT-4级别的开源模型”。

2. 如何治理开源AI已成为短期内重要的未解决议题之一本报告从安全治理的角度探讨开源AI的政策和实践。

在制定相关政策时,各国需要综合考虑促进创新生态、技术的安全性与可控性、隐私保护、知识产权、伦理与责任、国际合作与标准制定、市场竞争环境、教育与公众参与等多个方面。

这些维度与各国的战略考虑及监管取向相结合,共同构成了开源AI的治理政策框架。

全球范围内,许多国家和地区,包括欧盟、美国、英国、法国、中国以及其他全球南方国家,都在积极制定AI相关政策,开源AI也成为多项政策探索的核心。

尽管这些政策旨在平衡技术发展与安全需求,但在监管取向和具体条款的设计上存在显著差异,这部分原因是由于政策制定过程中缺乏关于风险、收益及潜在影响的严谨证据。

3. 前沿AI开源的主要争论领先的基础模型研发机构近年决定开源其模型或限制对其模型的访问,引发了关于是否以及如何开放能力日益增强的基础模型的争论。

我们识别了两种主要立场:一方是审慎开放的倡导者,他们担心前沿AI开源成为潜在不安全技术“不可逆转的扩散”,并主张在确保安全的基础上逐步推进开放;另一方则是鼓励开放的支持者,他们认为前沿AI开源是“确保对技术信任的唯一途径”,强调开放性对于促进创新和透明度的重要性,并反对过度限制的做法。

尽管在风险与收益的评估、开源方式、安保措施以及监管政策等方面存在分歧,但两方都认同开放性在推动技术进步和促进社会福祉方面的重要作用,以及前沿AI开源的潜在风险,都主张在开源前应采取必要的评测等安全措施。

此外,从企业视角看,有关开源和闭源的讨论和实践或多或少地带有商业利益的考量。