您好,欢迎访问一九零五行业门户网

AI失控风险引发Meta举牌抗议,LeCun称开源AI社区蓬勃发展

在ai领域,人们长期以来对于开源和闭源的选择存在分歧。然而,在大规模模型的时代,开源已经成为一股强大的力量悄然崛起。根据之前谷歌泄露的一份内部文件,整个社区正在快速构建与openai和谷歌大规模模型相似的模型,其中包括围绕meta的llama等开源模型
毫无疑问,meta是开源世界的核心所在,一直以来都在不断努力推动开源事业,例如最近发布的llama 2。然而,众所周知,树大必有枯枝,最近meta因为开源而陷入了一些麻烦
在 meta 的旧金山办公室外,一群手举标语的抗议者聚集在一起,抗议 meta 公开发布 ai 模型的策略,并声称这些发布的模型造成了潜在不安全技术的「不可逆转的扩散」。甚至有抗议者将 meta 发布的大模型比作「大规模杀伤性武器」。
这些抗议者自称为「concerned citizens」(关心某事的公民),由 holly elmore 领导。根据领英信息,她是 ai pause(中止 ai)运动的独立倡导者。
需要改写的内容是:图片来源:misha gurevich
如果一个模型被证明不安全,她指出可以关闭api,例如像谷歌和openai那样,只允许用户通过api访问大型模型
与此相反,meta的llama系列开源模型提供了模型权重给公众,这使得任何拥有适当硬件和专业知识的人都可以自行复制和调整模型。一旦模型权重发布,发布公司将无法再控制ai的使用方式
对于holly elmore来说,释放模型权重是一种危险的策略,因为任何人都可以修改这些模型,而且无法撤回这些修改。她认为「模型越强大,这种策略就越危险」
与开源相比,通过 api 访问的大型模型通常具备各种安全特性,例如响应过滤或通过特定训练阻止输出危险或令人厌恶的响应
如果可以释放模型权重,那么重新训练模型以跳过这些护栏将变得更容易。这使得利用这些开源模型来制作网络钓鱼软件和进行网络攻击变得更加可能
需要改写的内容是:图片来源:misha gurevich
因为,她认为部分问题在于「针对模型释放的安全措施不够」,需要有更好的方式来保证模型安全。
目前,meta尚未对此发表任何评论。然而,meta首席ai科学家yann lecun似乎对“开源ai必须被取缔”这一说法进行了回应,并展示了巴黎开源ai创业社区的繁荣景象
与 holly elmore 持不同意见的人也有很多,认为 ai 发展的开放策略是确保实现技术信任的唯一途径。
有网友表示,开源有利有弊,既可以让人们获得更高透明度并增强创新,但也将面临恶意行为者滥用(如代码)的风险。
不出所料,openai 再次遭到了揶揄,「它应该回归开源。」
对开源持有担忧的不在少数麻省理工学院人工智能安全博士后研究员 peter s. park 表示,未来广泛发布先进的 ai 模型将会带来特别的问题,因为基本上是不可能防止滥用 ai 模型
不过,非营利性人工智能研究组织 eleutherai 的执行董事 stella biderman 表示:「到目前为止,几乎没有证据表明开源模型造成了任何具体的损害。目前还不清楚是否仅在 api 背后放置一个模型就可以解决安全问题。」
biderman 认为:「构建 llm 的基本要素已在免费的研究论文中公开,世界上任何人都可以阅读论文文献来开发自己的模型。」
她还补充道:「鼓励公司对模型细节保密可能会对领域研究的透明度、公众意识和科学发展产生严重的不良后果,特别是会影响独立研究人员。」
尽管大家已经在讨论开源带来的影响,但 meta 的方法是否真的足够开放,是否能够发挥开源的优势,还未可知。 
开放源代码促进会(osi)执行董事 stefano maffulli 表示:「开源 ai 的概念尚未得到正确定义。不同的组织使用该术语来指代不同的事物 —— 表示不同程度的『公开可用的东西』,这会让人们感到困惑。」
maffulli 指出,对于开源软件来说,关键问题是源代码是否公开可用并可复现用于任何目的。然而,要复现 ai 模型可能需要共享训练数据、收集数据的方式、训练软件、模型权重、推理代码等等。其中,最重要的是训练数据可能涉及隐私和版权问题
osi 自去年以来一直致力于为「开源 ai」给出一个确切的定义,很有可能会在未来几周内发布早期草案。但无论如何,他都认为开源对 ai 发展至关重要。「如果 ai 不是开源的,我们就不可能拥有值得信赖、负责任的 ai」,他说道。
未来,关于开源与闭源的分歧会一直延续下去,但开源已经无法阻挡。
以上就是ai失控风险引发meta举牌抗议,lecun称开源ai社区蓬勃发展的详细内容。
其它类似信息

推荐信息