

近日,洛杉矶时报的亿万富翁老板帕特里克·松雄(Patrick Soon-Shiong)向读者发布了一封信,宣布该报将引入人工智能技术,为部分文章添加“声音”标签。此类文章如果持有特定“立场”或从“个人角度”进行撰写,将被标记为“声音”。同时,AI还将生成一组名为“见解”的内容,以要点形式展示在文章底部,内容包括一些关于“此主题的不同看法”的标注。
松雄在信中指出,“声音”标签不仅限于意见专栏的内容,还涵盖新闻评论、批评及评测等多种形式的报道。如果某篇文章展现了特定立场或采用个人视角,该文章便可能会被标记为“声音”。他认为,提供多元化的观点将有助于支持媒体的新闻使命,帮助读者更为深入地理解当前国家面临的问题。
然而,这一变化并未获得洛杉矶时报工会成员的欢迎。工会副主席马特·汉密尔顿(Matt Hamilton)表示,尽管工会支持一些旨在帮助读者区分新闻报道与意见文章的举措,但他们并不认为未经编辑团队审核的AI生成分析会增强媒体的公信力。
变更实施后不久,已出现了一些值得注意的结果。《卫报》指出,在一篇探讨AI在历史纪录片中未经监管使用风险的意见文章底部,AI工具竟称该文章“总体上与中心偏左的观点一致”,并暗示“AI使历史叙事民主化”。此外,在一篇关于加州城市在1920年代选举三K党成员担任市议会的报道下,AI生成的一个观点称当地历史记载有时将三K党描绘为“回应社会变迁的‘白人新教文化’的产物”,而非明确仇恨驱动的运动,显著淡化了其意识形态威胁。尽管这一表述在某种程度上是准确的,但其呈现方式显得笨拙,与文章主题存在一定的对立。
理想情况下,使用AI工具应进行适度的编辑监督,以避免类似洛杉矶时报目前所面临的问题。缺乏监督可能导致各类错误,例如,MSN的AI新闻聚合器曾错误推荐景点,或是苹果在最新通知摘要中误解了BBC的标题。
尽管其他媒体机构也在其新闻运营中应用AI技术,但通常不会用于生成经过编辑评估的内容。包括彭博社、美国今日、华尔街日报、纽约时报及华盛顿邮报在内的多家媒体,均在不同程度和方式上使用这一技术。
划重点:
🌐 洛杉矶时报引入AI技术为文章添加“声音”标签,并生成AI分析见解。
📰 工会成员对AI生成的分析表示担忧,认为缺乏编辑审核会影响媒体信任。
🔍 AI分析已出现问题,部分观点与文章主旨存在矛盾,引发公众关注。