在我的职业生活中,每个我周围的教职员工、其他作家,都在为ChatGPT这个新的人工智能工具闹得沸沸扬扬。要知道,它可是能够像人一样写作的玩意。
技术不应该是人类。它最多只应该有一个人形。但是,我们这个聊天机器人可以处理多种想法,并写出一个有说服力的文章段落。甚至让专业班的同学们都感到震惊。
我们中的一些教授主要痴迷于评估和保护写作的完整性,嗯,或者说作家灵魂的一切。我们将论文扫描到专有的作弊检测器中,当程序发现可疑的高比例复制文本时,我们就会喋喋不休。至少十年来,学术界一直在争论根除计算机辅助作弊的适当作用。我们是应该建立更好的测试,还是像20世纪80年代的课后特别节目那样,直接吓唬学生?我们意见不一。
ChatGPT能做得非常好,我们甚至不确定使用它是否构成作弊。它提供的段落总是原创的,因为它们不是从其他文本中复制来的东西。它甚至可以插入引文,保护我们的学术文化的信用。无论准确与否,插入参考文献的做法也都符合学术写作的风格。这让《自然》杂志不禁问道,教授们,你们是否应该担心这项技术。
我肯定会担心,除非我的职业已经被宣布死亡很多次了,以至于我给它买了一件丧服。只是,人文学科并没有死,写作并没有死。而高等教育却得蹒跚前行。你知道为什么吗?首先,因为这项技术产生了非常令人毛骨悚然的东西。
人工智能写的散文,完全就像恐怖电影中的玩偶一样。恰吉,梅根,原始的弗兰肯斯坦那样的怪物。这些怪物玩偶看起来像人,甚至可以讲故事。但是,他们不能制造故事。这不就是它们是怪物的原因吗?它们只能将人类的虚荣心反射到人类身上。它们不能创造新的人,不能描绘新的地平线,也不能描绘新的经验。它们是人类经验的回声的复制品。
我读了一些用ChatGPT写的令人印象深刻的文章。他们并没有提出什么论点。但是同样,所有的作家,尤其是学生,也都没有。显然,这一点并不能说明什么问题。ChatGPT的文章在语法上正确无比。作家和学生却往往做不到这一点。这是最重要的一点。
但是,即使这些文章是对其他由人写的文章的良好综合,它们也不是人的作品。坦率地说,它们让我毛骨悚然,正是因为它们是如此精悍,却又如此空洞。ChatGPT用复杂的文字选择来冒充它颇有情感,但却仍然是没有任何感情色彩。文章没有唤起人们的好奇心或任何其他情感。有一个声音,它是机械的。它没有煽动、冒犯或诱导。这是因为真正的呐喊比语法上的模式化更重要。
呐喊是所有文本交流中难以捉摸的指纹,是读者、世界和作者之间的关系。ChatGPT可以为读者编程,但却只能模仿作者。当然,它也不能在他们之间引导世界。
这一周我呆在一家杂货店里。一切都是节日音乐。我喜欢不同类型的音乐。对我来说,提示我自己的选择还不够好;我想让其他人*放播**它。我想在商店、公园或汽车里听到它。如果只是为了我们在杂货店过道上一起哼唱几小节"平安夜"的那一刻。
这家商店正在*放播**一个叫Pentatonix的团体的歌曲。我查了一下以确定的确是那首歌曲。据我所知,这首歌在音乐上很好。所有的音符都漂浮在正确的地方。但是,它被过滤了,就像机械式的Muzak封面把实际的歌曲变成了单纯的声音:技术性的节日音乐。
这就是ChatGPT和其他人工近似人类表达方式的承诺。技术的历史表明,这些东西有一个炒作周期。他们承诺;我们害怕;他们抓住了机会;他们没有兑现承诺。我们将它们调整到合适的规模。我们回到做人的事业上,让机器来帮助我们完成。
眼下是一个思考人类和机器、生活经验和模拟之间界限的好时机。有1000个节日传统。所有这些都要求我们回到更像人而不是机器的空间。少一些安排,多一些存在。更少的技术,更多的混乱。
人文学科、艺术和高等教育可以使用一点提醒,我们是人。那是我们的事,只要我们做得好,就没人工智能什么事。
纽约时报12月22日特雷西-麦克米伦-科特姆