生成式AI划成长红线
无规矩不成方圆
透视一季度CPI和PPI数据
3上一篇  下一篇4 2023年04月12日 版面导航 放大 缩小 默认        

无规矩不成方圆

陶凤
 

  无规矩不成方圆。众神参战,GPT盲眼狂奔。

  4月11日下午,网信办发布生成式人工智能服务管理办法征求意见稿,对面向公众提供生成式AI服务的企业提出了多条要求。

  办法圈定了若干红线,安全首当其冲。办法要求生成式人工智能产品提供服务前应向国家网信部门申报安全评估。

  安全为首,数据来源的合法性、生成内容的真实性都成为关键考量,禁止非法获取、披露、利用个人信息和隐私、商业秘密。

  GPT横空出世,在最能撬动规模效应的C端实现应用突破,由此引发的不安也在全社会迅速蔓延。

  这种不安既来自于普遍的虚假内容诱导,随时有可能爆发的信息外泄,还有各行各业被抢走饭碗的现实焦虑。

  马斯克等人在千人联名公开信中呼吁,暂停开发更强大的AI系统至少6个月,也是出于“对社会和人类构成潜在风险”。

  这些潜在风险不是危言耸听。现代信息社会被比作“超级全景监狱”,正是暴露于网络环境中的大众隐私空前暴露。

  如今,ChatGPT惊人的数据抓取能力,不能没有法律和公德的约束。无论是重度介入其中的企业还是普通大众,都对其机密隐私泄露会更加担忧。率先“出手”的意大利和加拿大,从数据安全和数据保护的角度来看待ChatGPT的应用风险。

  一方面是对数据不负责任地抓取,另一方面则是对内容不负责任地生成。AI技术本身就具有不可控性,加之它的数据来源的真实性无法保证,所以出现AI把虚假信息源当真而不自知并不奇怪。

  偏见、欺骗以及对隐私和公共安全的冲击不得不防。不怕AI一本正经胡说八道,就怕公众信以为真以讹传讹。

  可以预见,对人工智能产品的研发和推广热潮仍会持续,无论是大厂还是初创企业都在火速入局,以求未来商机。

  ChatGPT的进化,依靠于和人类的互动。它对人工智能技术的进一步升级,对其应用场景的无限扩展,当开发者将其放开,并不代表这个系统合规、严谨、向善,因此监管和越来越多的使用者都要扮演纠偏者的角色。

  相比于大众,纠偏对当下的监管亦提出更高标准的诉求。比如,既要求现有的个人信息保护、知识产权、网络安全、数据安全等法律规范更适用,还要加强制定专门的技术标准,更新人工智能的伦理规范,加强特定领域的立法。

  人工智能的“iPhone时刻”,各路企业和资本未必有OpenAI的耐心,但一定不缺追赶热钱的决心。众神跑得快,监管也到了你追我赶的关键时刻。

 
3上一篇  下一篇4  
 
   
   
   
本网站所有内容属《北京商报》社所有,未经许可不得转载。
商报总机:010-84285566 网站热线:010-84276814
商报地址:北京市朝阳区和平里西街21号 邮编:100013
ICP备案编号:京ICP备08003726
 
关闭