微软(Microsoft)先前曾向内部员工宣布,截至 3 月底前将裁减约 1 万名员工,而根据外媒《Platformer》报导,公司的 AI 「伦理和社会团队」(ethics and society team)已遭解散。
此 AI 伦理团队在 2020 年达到规模巅峰,当时包含工程师、设计师和哲学家等约 30 名员工,但到了 10 月,团队因重组而被裁减至大约 7 人。
伦理和社会团队负责什麽?
此团队负责确保微软的 AI 规范是否实际反映在产品设计中,他们也设计了一款角色扮演游戏「Judgment Call」,帮助产品设计师在产品开发期间先想像和讨论 AI 存有的潜在危害。该团队近期主要在锁定微软产品整合 OpenAI 技术後带来的风险。
团队成员认为,被解雇的原因是微软为了要抢在竞争对手前推出 AI 产品,因此不采取长期且负责任的思考方式。有消息人士透露,技术长 Kevin Scott 和 CEO 萨蒂亚·纳德拉(Satya Nadella)给员工们的压力越来越大,他们希望尽快将最新的 OpenAI 模型和产品新版本交到顾客手中。
少了伦理团队会影响微软 AI 产品吗?
微软在解散 AI 伦理专门团队後,恐难以确保其 AI 相关规范与产品设计间维持密切关联,尤其当微软正处於推动 AI 工具普及的阶段。
微软仍然维持公司的「负责任 AI 办公室」(Office of Responsible AI,ORA),负责为 AI 设立规范并监测公司的 AI 计划。
微软对此则在声明中表示,公司仍会致力以安全且负责任的方式研发 AI 产品。微软也强调在过去六年中,已增加 AI 伦理相关人员,而其他所有微软职员也须一起负责确保 AI 规范得到实践。
微软因对生成 AI 的投资,得到在搜寻服务、生产力产品和云端计算领域与 Google 竞争的难得机会,当初将 AI 导入 Bing 时,微软即表示每从搜寻服务市场中拿走 Google 市占率的 1%,就会带来 20 亿美元的年收入。
但不可否认的是,AI 技术仍存在已知和未知的潜在风险,因此在生成式 AI 之争如火如荼地进行时,解散任何伦理相关团队都容易引发外界的关注。
资料来源:The Verge、TechCrunch
责任编辑:Jocelyn
核稿编辑:Mia