谷歌也担心泄密风险,警告员工谨慎使用AI办公。

金融
0 523

谷歌在全球推广人工智能(AI)聊天机器人的同时,也对员工发出警告,要求他们在使用这些机器人时要谨慎行事。谷歌建议员工不要将机密材料输入给聊天机器人,同时也提醒IT工程师避免直接使用机器人生成的代码。这是因为研究人员发现,人工智能可以吸收并复制相关对话数据给其他人,从而产生信息泄漏风险。谷歌表示其聊天机器人Bard可以生成一些不受欢迎的代码建议,但仍然对IT工程师有所帮助,并且谷歌的目标是保持足够的透明度。这些担忧显示出谷歌希望避免人工智能对公司的商业化运作造成损害,并且企业对人工智能的使用限制正越来越成为一种具有共性的企业安全标准。一些大型企业如三星、亚马逊和德意志银行等都对员工使用人工智能设置了一定的限制以保证公司运营的安全。根据Fishbowl社交网站的调查,约43%的专业人士在工作中使用了ChatGPT或其他人工智能工具,但通常没有告诉他们的老板。谷歌已与爱尔兰数据保护委员会进行了对话,并正在解决监管机构的问题。一些公司已经开发了软件来解决这些问题,例如Cloudflare正在推广一种功能,可以让企业对某些数据进行标记并限制其向外部流动。谷歌和微软也在向企业客户提供对话工具,这些工具的价格更高,但不会将数据吸收到公共人工智能模型中。总体而言,企业对于员工使用人工智能的态度越来越审慎,并且正在采取措施确保数据安全。

0 收藏 分享 举报
  • «
  • »