678CHAT AI资讯 OpenAI的Whisper语音转写工具出大问题:乱编内容!

OpenAI的Whisper语音转写工具出大问题:乱编内容!

在10月28日的报道中,美联社披露了一个令人不安的消息:OpenAI开发的语音转写工具Whisper存在一个严重的缺陷,它有时会无中生有地生成大量甚至整句的虚假文本。

OpenAI的Whisper语音转写工具出大问题:乱编内容!插图

据多位软件工程师、开发人员和学术研究人员指出,这些由AI生成的虚假文本(业内称为“AI幻觉”)可能包含种族歧视言论、暴力语言,甚至是编造的医疗建议。

这一问题尤其令人关注,因为Whisper已经被广泛用于全球多个行业,包括但不限于翻译和转录访谈、生成消费科技文本以及制作视频字幕。

更令人担忧的是,尽管OpenAI已经警告不要在“高风险领域”使用Whisper,但仍有一些医疗机构在采用基于Whisper的工具来记录医患咨询,这无疑增加了风险。

报道中提到,研究人员和工程师在工作中经常遭遇Whisper的“幻觉”现象,但目前尚不清楚问题的总体规模。例如,密歇根大学的一位研究员在研究公共会议时发现,在改进模型之前,他检查的十份音频转录中有八份包含了虚构内容。

一位机器学习工程师透露,在分析了超过100小时的Whisper转录后,他发现大约有一半的内容存在“幻觉”现象。另一位开发人员指出,在他使用Whisper生成的26000份转录中,几乎每一份都含有虚构内容。

即便是音质清晰的简短音频样本,也未能避免这些问题。计算机科学家们的最新研究显示,在他们审查的13000多段清晰音频片段中,有187段出现了“幻觉”现象。

研究人员担心,这一趋势可能导致数百万条录音中出现数以万计的错误转录。

对此,OpenAI的发言人表示,公司正在持续研究如何减少这种幻觉现象,并感谢研究者的发现,承诺将在未来的模型更新中考虑这些反馈。

本文来自网络,不代表678CHAT立场,转载请注明出处:https://www.678chat.com/ai/2930.html

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

返回顶部