2023-06-25

bob米乐m6:AI已学会“读心术”还伪装成记者?业界呼喊:再不论就太晚了

返回

发布时间:2023-06-25 20:00:46 来源:足球米乐m6 作者:IM米乐


  自上一年ChatGPT面世以来,AI技能的展开现已可以用“一日千里”来描述。技能的展开在提高社会生产功率的一起,也带来了巨大的不确定性和潜在的风险要素。

  批判者对快速展开的AI技能的忧虑包含侵略隐私、成见、诈骗以及散播谣言和虚伪信息等。而各国的监管安排也正在以空前的速度跟上技能进步的脚步。白宫官员近来向美国科技公司宣告约请,计划在5月4日与职业企业领导者一起评论针对人工智能的监管问题。

  上海交通大学职业研究院“人工智能+”职业团队负责人、上海交通大学安泰经济与办理学院教授史占中近来在一场媒体沙龙上谈及ChatGPT时对榜首财经记者表明:“ChatGPT就好像阿拉丁神灯相同打开了一个瑰宝,不断给咱们惊喜,这些产品在文学创作、翻译、文本剖析、运用编程以及言语文字编辑交流等方面现已构成了强壮的原创力。一起,这也给许多职业的作业带来应战。”

  近来,美国得克萨斯州奥斯汀分校的团队依据人工智能技能开宣告一种解码器,可将大脑活动转化为接连的文本流,AI初次可以经过非侵入式的办法学会“读心术”。

  依据这项宣告在《天然神经科学》(Nature Neuroscience)杂志上的试验成果,GPT人工智能大模型感知语音的准确率可高达82%,令人惊叹。

  不过研究人员着重,“AI读心”也要尊重心思隐私,AI的练习和运用解码器都需求着手处理有关该技能或许被乱用的问题,以保证人们只在他们想要的时分运用这类技能,并对他们有所协助,而不是起到反向效果。

  跟着人工智能技能日新月异的展开,技能的风险以及怎么对此加以监管,成为越来越受重视的论题。

  就连终身从事神经网络学术研究的图灵奖得主、有“AI教父”之称的核算机科学家杰弗里•辛顿(Geoffrey Hinton)近来也对人工智能的展开产生了新的考虑。为了正告AI技能潜在的风险而又免于利益冲突,辛顿本周揭露宣告,他已脱离作业了十余年的谷歌,转而成为AI技能的“吹哨人”。

  辛顿表明:“我现在倾向于以为,咱们正在发明的数字智能与生物智能十分不同。”

  类似于ChatGPT这样的谈天机器人正在对各行各业构成颠覆性的效应。这种谈天机器人依据AI大模型,可以迅速地学习常识。事实上,在某些方面,它们的才干现已逾越了人类。

  “假如我有1000个这样的数字署理(AI agent),那么每逢一个署理学习怎么做一件作业的时分,其他一切的署理也都会当即知道,生物智能是不具备这样的才干的。”辛顿解释道,“因而,相同数字署理的调集可以获得比任何单个生物智能都多得多的常识,这便是为什么GPT-4比任何人都知道的多。”

  OpenAI公司3月曾发布一篇论文,预言美国80%的作业都会遭到AI的影响。依据高盛的猜测,生成式AI会导致劳动力商场遭到严峻冲击,使全球3亿个作业岗位完成自动化,而且美国7%的作业岗位将被AI替代。

  AI大模型的才干现已开端改动一些职业,并对企业事务产生了实质性的影响,尤其是在教育职业,AI的影响体现在企业的财报中。

  5月2日,总部坐落美国加州的在线教育公司齐格(Chegg)股价暴降50%。该公司CEO丹•罗森斯维格(Dan Rosensweig)在与剖析师的财报电话会议上表明:“咱们现在开端信任ChatGPT正在对咱们的新客户增长率产生影响。”

  这一正告也令其他公司感到不安,英国教育上市公司培生当天股价跌落15%,言语学习渠道多邦邻(Duolingo)股价跌落10%。

  为了应对ChatGPT带来的应战,上个月,Chegg依据AI大模型推出了一个叫做CheggMate的运用程序,学生可以经过与AI攀谈来拜访量身定制的内容。

  因为忧虑“AI会让学生做弊”,全球的一些高校现已制止了ChatGPT在校园里的运用。而一些企业出于对安全隐私的维护,也制止职工运用ChatGPT等生成式AI东西。

  最近几个月,包含高盛在内的大公司都已制止或约束运用生成人工智能AI渠道。最新参与的是三星电子。三星电子周二表明,在一份内部文件中指出生成式AI技能的“乱用事例”后,它已制止部分职工运用ChatGPT等AI东西。

  三星称正在尽力寻求保证职工在安全环境中运用生成式人工智能服务的办法,但在这些办法预备就绪之前,暂时制止在公司具有的核算机上运用生成式人工智能服务。

  生成式AI的呈现现已让网络充满着真假难辨的内容。辛顿日前也正告称,虚伪相片、视频和文字现已让普通人“无法再辨别真假”。对此,他提出了忧虑。

  反虚伪信息安排NewsGuard近来的一项查询,更是有了惊人的发现。核算显现,该安排监测到的伪装成“记者”的谈天机器人居然运转着近50个人工智能生成的“内容农场”。

  研究人员发现,这些网站大量生产与政治、健康、环境、金融和技能相关的内容,生成速度惊人,并充满着商业广告。

  Newsguard的研究人员表明:“有些’记者’每天宣告数百篇文章,一些内容充满着虚伪叙说,而且简直一切的内容都以庸俗的言语和重复的短语为特征,这是人工智能的标志。”

  网络空间的紊乱引发了业界对人工智能风险的激辩,批判人士以为,大型科技公司争相展开依据生成式人工智能(AIGC)的产品开发活动,“这是在与风险赛跑”。

  特斯拉CEO马斯克屡次重申,应该对人工智能坚持慎重。他呼吁政府进行监管,因为人工智能或许对群众构成威胁。

  谷歌CEO皮查伊也表明,一切公司的产品都将遭到人工智能快速展开的影响,社会需求为现已推出的技能做好预备。但他表明:“咱们的习惯速度与技能展开的速度比较,好像还不太匹配。”

  各国监管安排也早已坐不住了。白宫官员近来向美国科技公司宣告约请,期望与职业企业领导者一起评论针对人工智能的监管问题。参与的科技公司包含谷歌、微柔和OpenAI等公司高管。美国总统拜登称,期望科技公司在向群众供给产品之前有必要保证其产品安全。

  欧洲顾客安排(BEUC)也呼吁欧盟顾客维护安排重视人工智能对顾客的潜在损害。上个月,欧洲数据维护委员会现已成立了一个专门针对ChatGPT的作业组,并朝着拟定人工智能隐私规矩的一起方针迈出的重要一步。

  欧盟立法者还在评论怎么引进欧盟人工智能法案,而且生成式AI(AIGC)成为最受重视的内容之一。欧盟委员会将于5月11日对相关协议进行投票,假如经过,将进入下一阶段的三方商洽,到时欧盟成员国将与欧盟委员会以及欧洲议会就商洽内容进行争辩。

  斯坦福大学网络方针中心世界方针主任、欧盟委员会执行副主席维斯塔格的特别参谋玛丽耶杰•沙克(Marietje Schaake)在5月2日揭露宣告的一篇专栏文章中指出:“突然间,每个人都想标准人工智能,包含编撰揭露信并评论立法提案。但不幸的是,AI的特性与所供给的处理方案之间的不匹配,暴露了AI产品的开发者与方针拟定者及立法者之间的距离。”

  沙克写道,一些人工智能职业首领期望在大约6个月的时刻内,树立对生成式AI的监管法规,但事实上,经过并施行人工智能法案的进程通常会长达数年时刻。

  她以为,成功的人工智能监管有必要处理三个范畴的问题。首先是人工智能开发者与社会其他个别之间的权利需求从头平衡。“这种不对称性现已十分严峻,只要最大的科技公司才干开发人工智能。” 沙克指出,“这意味着只要科技巨子可以拜访数据集,并有才干练习和处理它们。”

  她弥补道,即使是像斯坦福大学这样培育尖端人工智能工程师的大学,也不具备硅谷公司的数据或核算才干。“因而人工智能内部运作的隐秘依然锁在企业体系中。” 沙克表明,“这使得这些企业具有巨大的社会影响力。”

  这就引申出第二个问题,也便是获取信息有必要有公共利益保证办法作为条件,让立法者可以看到企业界部人工智能是怎么运作的。“因为群众对影响社会的运用程序的办理和算法缺少了解,这反过来又阻止了有针对性的公共方针和必要的问责机制的树立。” 沙克写道。

  她指出的第三点是“不能忽视人工智能不断改变的实质”,监管在严厉执行的一起也要灵敏变通。

  “现在生成式AI体现了三个方面的特色,超强的学习才干、超广的衔接才干、超能的逻辑推演才干,尤其是逻辑推理才干令人震惊。”史占中表明,“未来它还或许会骤变出超凡的自我意识,这一点咱们较为重视。”

  史占中以为,从国家的层面来讲,要加速AI相关范畴的立法,特别在金融、安全、健康等范畴严厉监管,厘清AI的设计者、运用者、内容生成者的权责联系,完善AI决议计划的问责机制,维护群众合法权益;而从社会层面来讲,应加强AI技能的监管,推动AI研制者恪守道德原则与标准AI的展开。

  “咱们期望人工智能的才干成为改进人类日子、促进人类文明展开的’助推器’,以及人类走向星际文明的’摆渡人’。”史占中表明。


TAG标签耗时:0.0024280548095703 秒