乔·阿尼

人工智能机器人提示作为生成人工智能和伦理方面的专家, 当凯西Fiesler与品牌或在线评论互动时, 她对电话另一端的人是否真的是聊天机器人非常敏感.

越来越多的普通互联网用户也有同样的疑虑. 这是因为越来越多的公司开始使用聊天机器人来解决问题, 管理客户参与——或者因为其他人都在这么做.

凯西Fiesler“我在社交媒体上听很多人说,他们在工作中最重要的话题是如何做到A.I., 因为每个人都觉得他们必须尽快整合这项新技术——即使它没有意义,费斯勒说, CMCI信息科学副教授.

菲斯勒说,聊天机器人有其用途. 他们可以激发作家在草稿上的头脑风暴, 或者在桌面角色扮演游戏中创造非玩家角色. 她说,问题在于“聊天机器人和生成A.I. 需要在任何地方做任何事. 这很荒谬.”

我不这么认为? 想想聊天机器人鼓励小企业主违法吧(纽约市), 建议使用胶水帮助奶酪粘在披萨上(谷歌),并假扮家长来保证当地学校的安全(Meta)。.

“在Meta的案例中, 给他们一些信任, 回应家长的账户被清楚地标记为A.I.费斯勒说. 但与此同时, 它可能冒充父母的想法应该是预料之中的, 因为大型语言模型不是信息检索系统——它们是“下一个单词是什么”?的系统. 所以,你不可避免地会有一些错误的回答.”

Social media interactions that should be between people are one case where Fiesler said chatbots should be off-limits; another is dispensing legal, 医疗或商业建议. 这还没有考虑到A的复杂的社会和伦理问题.I.错误信息, 劳工权益, 知识产权, 能源消耗——这个行业对这项技术有望迎来的黄金时代赞不绝口,却忽视了这一点.

但行动缓慢、提出深思熟虑的问题并不是硅谷的强项, 担心落后的公司忽略了费斯勒博彩app推荐道德债务的更重要观点.

“现在就有这样的态度, 并在博彩平台推荐发现问题后处理后果,”她说。. “但很多时候,伤害已经造成了.

“让我震惊的是,这些大型科技公司, 利用他们所有的资源, 所有这些事情不断发生,你会感到惊讶吗. 然而当我描述这些A.I. 在我的伦理学课上给本科生用例,他们会想出所有可能出错的地方.”