自 ChatGPT 带起生成式聊天机器人浪潮以来,多家公司已警告员工不得将公司内部机敏资料与聊天机器人分享。近来 Google 也向自家员工发出警告——不过,不只不准员工将内部资讯输入 ChatGPT 等聊天机器人,就连包括 Google 自家的 AI 聊天机器人 Bard 也在被禁止的行列。
《路透社》援引研究人员的发现指出,类似 ChatGPT、Bard 等 AI 聊天机器人可「重现」出它在训练期间吸收的数据,从而造成泄漏风险。包括沃尔玛(Walmart)、微软、亚马逊在内的公司都曾表示过看到 ChatGPT 产生出来的答案非常近似於公司内部的数据。
不过,Google 发出的警告之所以引起媒体关注,主要是该公司警告员工不可使用的聊天机器人范畴内,包括了 Google 自家的 Bard。
Google 才在本月稍早声称 Bard 已能自行执行程式码,以便在回答有关数学和逻辑问题上时表现地更好。不过该公司也向《路透社》表示,虽然 Bard 可以为工程师提供帮助,但它也可能给出不理想的程式码建议。
核稿编辑:Chris