在过去的二十年里,新闻业一直承受着巨大的经济压力,所以记者们开始尝试生成式人工智能来提高他们的生产力是有道理的。
美联社于2024年4月发布的一项调查询问了记者在工作中使用生成式人工智能的情况。近70%的受访者表示,他们曾使用这些工具生成文本,无论是撰写文章草稿、制作标题还是撰写社交媒体帖子。
公关公司Cision在2024年5月进行的一项全球调查发现,这一比例略小——47%的记者表示,他们在工作中使用过ChatGPT或Bard等生成式人工智能工具。
但是,这项技术的采用会带来任何道德问题吗?毕竟,这是一个职业道德和公众信任尤为重要的行业——以至于有专门的研究领域。
在过去的几年里,我和马萨诸塞大学波士顿分校应用伦理学中心的同事们一直在研究人工智能的伦理学。
我认为,如果记者不小心使用它,生成式人工智能的使用可能会破坏他们工作的完整性。
真正节省了多少时间?
让我们从一个显而易见的担忧开始:人工智能工具仍然不可靠。
用它们来研究故事的背景往往会导致听起来自信的废话。在2023年的一次演示中,谷歌的聊天机器人巴德在回答有关詹姆斯·韦伯太空望远镜新发现的问题时,出了名地答错了。
很容易想象一个记者使用这项技术作为背景,结果却得到了虚假的信息。
因此,使用这些工具进行研究的记者需要对产出进行事实核查。这样做所花费的时间可能会抵消任何所谓的生产率提高。
但对我来说,更有趣的问题与使用技术生成内容有关。记者可能很清楚自己想写什么,所以他们会让人工智能模型写出初稿。
这可能是有效的,但它也把记者从作家变成了编辑,从而从根本上改变了他们所做的事情的性质。
另外,从头开始努力写初稿,并在此过程中弄清楚启发它的原始想法是否有价值,这是有道理的。这就是我现在写这篇文章时正在做的事情。我很遗憾地告诉大家,我放弃了很多我最初想提出的论点,因为当我试图阐明它们时,我意识到它们不起作用。
在新闻领域,就像在艺术领域一样,生成式人工智能强调——实际上是崇拜——一个想法被构思出来的那一刻。它专注于最初的创意思想,并将将想法转化为成品的繁琐过程——无论是通过提纲、写作还是绘图——交给机器。
但是,写故事的过程与产生故事的想法是分不开的。想法在被写出来的过程中不断变化和成形。它们不是预先存在的实体,耐心地漂浮着,完美地形成,只是等待被翻译成单词和句子。
人工智能正在破坏一种特殊关系
公平地说,在这两项调查中,只有一部分记者使用生成式人工智能撰写文章草稿。相反,比如写时事通讯,翻译文本,想出头条新闻或撰写社交媒体帖子。
一旦记者们看到人工智能在写作方面相当有天赋——而且越来越擅长写作——他们中有多少人会抵制住诱惑呢?
这里最根本的问题是,新闻业所涉及的是否不仅仅是向公众传递信息。
新闻业是否也需要一种关系作家和读者之间的关系?
我想是的。
如果读者经常关注某个人写的有关中东或硅谷的文章的分析,那是因为他们信任这位作者,因为他们喜欢这位作者的声音,因为他们已经开始欣赏这位作者的思维过程。
如果新闻业涉及到这种关系,人工智能的使用会破坏这种关系吗?我是否愿意阅读由互联网匿名聚合而成的新闻,就像我是否愿意阅读由人工智能创作的小说或听由人工智能创作的音乐一样?
或者,换一种说法,如果我读了一篇新闻或一本小说,或者听了一段音乐,我认为这是由人类创作的,却发现它主要是由人工智能产生的,我对这段作品的欣赏或信任不会改变吗?
如果新闻业的实践是建立在与公众建立这种关系的基础上,那么越来越多地使用人工智能很可能会破坏新闻业的完整性,尤其是在这个行业已经在处理信任问题的时候。
记者是一种崇高的职业,在最好的情况下,它有助于维持民主制度。我认为这种高贵对记者来说仍然很重要。但大多数读者可能不会相信人工智能能够维护新闻业所扮演的社会角色。
人工智能不在乎“民主在黑暗中消亡”;它不在乎对权力说真话。
是的,这些都是陈词滥调。但它们也是维持贸易的普遍准则。记者忽视他们,后果自负。
Nir Eisikovits是麻省大学波士顿分校应用伦理学中心的主任。
的有限公司谈话是一种独立而不存在的非营利来源的新闻,分析和评论的学术专家。
本文来自作者[一条小新槐]投稿,不代表展畅号立场,如若转载,请注明出处:https://ctbjr.com.cn/life/202505-1947.html
评论列表(4条)
我是展畅号的签约作者“一条小新槐”!
希望本篇文章《新闻编辑室全力探索生成式人工智能的应用》能对你有所帮助!
本站[展畅号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览: 在过去的二十年里,新闻业一直承受着巨大的经济压力,所以记者们开始尝试生成式人工智能来提高他们的生产力是有道理的。 美联社于2024年4月发布的一项调查询问了记...