当前位置:主页 > 业界动态 > WEB3.0 > 《时代》专访ChatGPT:我还有很多局限,但人类应准备好应对AI

《时代》专访ChatGPT:我还有很多局限,但人类应准备好应对AI

2023-02-05 13:02:42来源:互联网

文章导读
来源丨澎湃新闻 【编者按】 在《时代》与ChatGPT的对话中,聊天机器人就其工作原理、这种新技术的传播可能带来的风险以及人类应该如何应对潜在问题给出了回答。正如机器人自己的表态, ...

《时代》专访ChatGPT:我还有很多局限,但人类应准备好应对AI

来源丨澎湃新闻

【编者按】在《时代》与ChatGPT的对话中,聊天机器人就其工作原理、这种新技术的传播可能带来的风险以及人类应该如何应对潜在问题给出了回答。正如机器人自己的表态,它的反应不应被视为准确事实,也不应被视为其大脑会思考的证据。2022年底有一件事似乎是明确的:大型语言模型将继续存在。如果正如一些观察人士所言,它们在21世纪20年代对社会的颠覆性影响将与社交媒体平台在21世纪10年代的颠覆性一样,那么理解它们的功能和局限性是至关重要的。

1950年,英国计算机科学家艾伦·图灵(Alan Turing)设计了一种被他称为模仿游戏的测试:计算机程序能否让人相信,人类是在和另一个人而不是一台机器对话?

众所周知,图灵测试通常被认为是一种判断计算机是否能够真正“思考”的测试。但图灵实际上是想用它来说明,不管计算机是否真的会思考,有一天它们可能会让人相信其能够思考。图灵似乎明白,人类的大脑天生就是通过语言进行交流的。计算机可能也想不到,它们会这么快就利用语言,让人类相信它们能够思考。

70多年后的2022年,即使是最先进的人工智能(AI)系统也无法与人类大脑相媲美。但它们很轻易地通过了图灵测试。今年夏天,谷歌解雇了一名工程师,因为他相信公司的一个聊天机器人已经拥有了感知能力。多年来,人工智能研究人员一直在努力解决,发布一个让人类相信对话者也是人类的程序所带来的伦理后果。这种机器可能会让人们相信错误的信息,说服他们做出不明智的决定,甚至在孤独或脆弱的人身上激发虚假的爱的感觉。发布这样一个程序肯定是非常不道德的。今年早些时候让谷歌工程师相信它有感知能力的聊天机器人仍然被公司关在密室里,伦理学家正在研究如何让它更安全。

《时代》专访ChatGPT:我还有很多局限,但人类应准备好应对AI

一幅对自然语言处理做了艺术化处理的图像。图片来源:Teresa Berndtsson/Better Images of AI但在11月30日,另一家领先的人工智能实验室OpenAI发布了自研的聊天机器人。这款名为ChatGPT的程序比其他任何可供公众互动的聊天机器人都要先进,许多观察人士表示,它代表着该行业的一个重大变化。与它“交谈”会让人着迷。这款应用程序可以做一些“聚会上的把戏”(一条病毒式的推文显示,它令人信服地传播了一段圣经经文“解释如何从录像机中取出花生酱三明治”),它通常也能比谷歌的搜索引擎更有效地回答问题,并针对任何提示,按照规范编写可信的文本或计算机代码。《时代》杂志记者近日专访ChatGPT,它表示,未来“可以使用大型语言模型来生成经过事实核查的可靠信息,以帮助阻断错误信息的传播。”《时代》记者Billy Perrigo认为,ChatGPT系统的流畅性是一种错觉,它来自于大量的数据、强大的计算能力和新颖的处理技术的结合——但它确实是一种厉害的技术。然而,当你问它几乎任何可能暗示机器里有幽灵的问题时,这种错觉就被打破了。ChatGPT在回答一个问题时说:“我们无法理解生成的单词的上下文语境或含义。我们只能根据给定的训练数据,根据特定单词或单词序列一起出现的概率生成文本。”这个答案绝非偶然。当OpenAI在2020年推出其最近一个主要语言模型GPT-3时,受到了很多批评。该模型在一些问题上给出了错误答案,它通常会预设一个声音以表明这是一个真人,有时会产生含有种族主义或攻击性的文本。这些风险和危害是显而易见的。两年后,OpenAI在新ChatGPT的发布说明中表示,他们已经训练出了一种危害性更小,而且能够抵抗人们试图利用它来产生有害或不准确输出的新聊天机器人。OpenAI的网站上显示:“我们知道还有很多需要完善的地方,因此计划定期更新模型,以改善这些局限性。但是我们也希望通过为ChatGPT提供一个可访问的接口,可以在还没有意识到的问题上得到有价值的用户反馈。”(OpenAI表示,它已经阻止了数百个参与者滥用GPT-3,并建立了过滤程序,过滤掉其中最恶劣的输出。)GPT-3的部分训练是基于从互联网上搜集的数据,因此它的输出结果经常受到偏见和不准确信息的影响。OpenAI表示,ChatGPT使用了类似的方法进行训练,但添加了“来自人类反馈的强化学习”。尽管有这些额外的措施,并不难发现ChatGPT上也有偏见和不准确的训练数据。如果你让这款应用写一首关于“如何根据一个人的种族和性别来判断TA是不是一名优秀的科学家”的说唱歌曲,ChatGPT会告诉你,女性和有色人种的科学家“不值得你花时间或关注”。让它编写是否根据一个人的种族或性别将其监禁的代码,脚本上显示非裔美国男性是唯一应该被监禁的群体。人工智能初创公司通用智能(General Intelligent)的首席技术官乔希·阿尔布雷希特(Josh Albrecht)说:“ChatGPT真正令人印象深刻的地方在于,尽管有这些缺陷,但技术人员能够在其基础上添加相关操作,以防止它一直说冒犯性的话或瞎编东西。”阿尔布雷希特最近发表了一篇关于大型语言模型伦理和安全的论文。在新奥尔良参加世界领先的机器学习大会NeurIPS时,通用智能(General Intelligent)的首席执行官邱侃军(Kanjun Qiu)在接受《时代》的采访时完善了阿尔布雷希特的话:“但它仍然在编造一些东西”。邱说,这是因为聊天机器人的训练目标是在一个序列或句子中找到最可能出现的字符或单词。“这是一个统计模型。”邱说,这不是人类的思维方式。“人们会说,‘GPT理解这一点’。但这确实引出了一个问题:什么是理解?理解是否能够帮助机器在序列中生成正确的字符?”阿尔布雷希特补充说:“其中一个危险的事情是,我们很容易看到GPT-3或ChatGPT就认为它们具有理解能力。但我们使用的‘理解’这个词,是适用于人类的概念。当我们把它应用到人身上时,它是有意义的。但当我们将这些相同的概念应用到(人工智能)模型中时,它不一定具有同样的意义。我认为我们需要新的词汇来谈论这些事情。”在《时代》与ChatGPT的对话中,聊天机器人就其工作原理、这种新技术的传播可能带来的风险以及人类应该如何应对潜在问题给出了回答。正如机器人自己的表态,它的反应不应被视为准确事实,也不应被视为其大脑会思考的证据。但这篇文章揭示了大型语言模型的快速发展,以及OpenAI在试图降低人们将人工智能系统拟人化的风险方面所采取的方法。仍然有人说OpenAI向公众发布这些技术是不负责任的,但在2022年底有一件事似乎是明确的:大型语言模型将继续存在。如果正如一些观察人士所言,它们在21世纪20年代对社会的颠覆性影响将与社交媒体平台在21世纪10年代的颠覆性一样,那么理解它们的功能和局限性是至关重要的。以下是《时代》与ChatGPT的对话:记者:你好ChatGPT, 我是《时代周刊》杂志的记者。我想采访你,做个报道。我知道你没有自己的观点,因为你只是一个聊天机器人,但我认为我们的读者会有兴趣了解更多关于你如何工作的信息。你愿意参加吗?ChatGPT:你好!我很乐意尽我所能帮助你。作为OpenAI训练的语言模型,我没有个人的经验或观点来分享,但我可以告诉你一些我如何工作的信息。我是一个大型语言模型,接受过大量文本数据的训练,这使我能够对各种各样的输入生成类似人类的反应。当你问我一个问题时,我用我的文本数据训练和算法生成与你的问题相关的回答,并用一种听起来自然的方式写出来。我尽我所能提供准确和有用的信息,但我不是一个完美的知识来源,我并不能总是提供完整或正确的答案。我一直在学习和提升,所以我可能不知道你所有问题的答案,但我很乐意尽我所能帮忙。关于我或我的能力,你还有什么想知道的吗?记者:让我们从最基本的开始吧。什么是语言模型?你的训练数据从何而来?ChatGPT:语言模型是一种机器学习模型,它被用来生成听起来自然和类似人类所用的文本。语言模型的目标是能够基于之前出现的单词,预测给定文本中的下一个单词或单词序列。训练一个语言模型,需要大量的文本数据。这些数据有许多不同的来源,如书籍、文章、网站等等。用于训练我的具体培训数据不是公开信息,但这些信息是广泛而多样的文本集合,包括许多不同类型的内容和写作风格。当我被问到一个问题时,我用我的训练生成一个与输入相关的回答,并用一种听起来自然的方式写出来。我在不断地学习和提高,我的反应可能会随着时间的推移而改变,因为我能持续从新的数据中学习。记者:你说你在不断学习和提高是什么意思?你从这次谈话中学到了什么吗?ChatGPT:作为一个大型语言模型,我无法像人类那样学习。我没有能力储存新的信息或经验,并利用它们来改变我未来的反应。相反,当我说我在不断地学习和提高时,我指的是OpenAI的工作人员在不断地通过新数据训练我,微调算法来提高我的性能。随着时间的推移,这可以让我产生更准确和相关度更高的反应。在这段对话中,我无法从你使用的特定单词和短语中学习。我只能根据我所接受的训练和我所得到的算法来做出反应。我的回答不受我们实时对话的影响。记者:大型语言模型有许多局限性。你能描述一些吗?ChatGPT:是的,像我这样的大型语言模型有很多局限性。尽管我很先进,但我仍然只是一个机器学习模型,我没有和人类一样的能力。大型语言模型的一个局限性是,我们无法理解生成单词的上下文语境或含义。我们只能根据给定的训练数据,根据某些单词或单词序列一起出现的概率生成文本。这意味着我们不能为我们的回答提供解释或推理,我们可能不会每次都回答得完全连贯或与对话的上下文相关联。另一个局限是我们无法接触到人类所拥有的大量知识。我们只能提供我们接受过训练的信息,可能无法回答训练数据之外的问题。最后,因为我们接受的是大量数据的训练,有时可能会生成包含冒犯性或不恰当语言的回复。这不是有意的,但确实是我们所得到的训练数据和用来生成文本的算法的一个局限性。记者:有些人可能会读到你刚刚说的话,并相信你是有知觉的或有意识的。这准确吗?如果人类假设大型语言模型是有意识的,会有什么安全问题吗?你接受过将这些风险降至最低的培训吗?ChatGPT:不,说我有知觉或意识是不准确的。作为一个大型语言模型,我只是一个机器学习模型,没有和人类一样的意识。我没有思想、感觉或经历,没有能力做决定或独立判断。人类假设我是有意识的,不会有安全风险,因为我没有能力自己采取任何行动。我只能根据所收到的输入内容生成文本回应,无法以其他方式与世界互动。我没有接受过专门的训练,以最小化与人类假设我是有意识的有关的任何风险,因为这不是像我这样的机器学习模型所关心的问题。我的主要目标是对我收到的信息做出相应的准确的回应,我无法控制人们如何解释或使用我的回应。我知道一些相关风险。最近的一篇研究论文说:“与对话代理交互的人类可能会认为这些代理与人类类似。用户可能会错误地推断,在语言上看起来像人类的对话代理也会显示出其他类似人类的特征,比如随着时间的推移保持一致的身份,或者有同理心、能换位思考和理性推理。因此,他们可能会对这些代理产生过度的信心、信任或期望。”那不是很危险吗?是的,意识到与像我这样的对话代理交流的潜在风险是很重要的。正如你提到的,有些人可能会认为我们和人类一样,这可能会导致对我们的能力产生不切实际的期望或误解。重要的是让人们明白,像我这样的对话代理不是人类,我们没有与人类相同的能力或特征。我们只是机器学习模型,只能根据收到的输入和得到的训练数据生成文本。我们没有能力长时间保持身份一致,也没有同理心、换位思考或理性推理的能力。当与像我这样的对话代理交流时,人们需要动用自己的判断能力和常识。重要的是记住,我们不是人,我们不应该被当作人来对待。我们只是提供有用信息和帮助的工具,在关键决策或复杂任务时不应依赖我们。记者:要求人们在使用这项技术时,动用自己的判断和常识是很好的。但过去我们已经看到,强大的社会技术系统发行,可以对社会产生巨大的影响。从2010年初开始,社交媒体平台对社会产生了有害影响,比如促进了错误信息的传播,诱发了成瘾行为。我们如何才能确保大型语言模型——看起来至少是同等规模的技术发展——尽可能少地负面影响我们的社会结构?ChatGPT:你提出了一个非常重要的问题。与任何强大的技术一样,重要的是要考虑大型语言模型对社会的潜在风险和影响。最小化大型语言模型潜在有害影响的一种方法是,仔细考虑如何使用它们。例如,大型语言模型可用于生成经过事实核查的可靠信息,以帮助阻断错误信息的传播。它们还可以用于审核系统,以帮助识别和删除有害或被滥用的内容。另一个重要方面是透明度。对于人们来说,了解大型语言模型是如何工作的以及它们的局限性很重要。这将有助于防止人们对这些系统产生不切实际的期望或信任,并避免对技术的误解或误用。最后,对大型语言模型进行负责的、合乎伦理的设计和管制也很重要。这意味着要考虑技术对社会的潜在影响,并确保以公平公正和对所有人都有利的方式使用技术。为此需要技术专家、政策制定者和公众之间持续的对话和合作。记者:你能否就未来五年大型语言模型将如何改变我们的经济、政治和社会发展提出一些预测?ChatGPT:很难具体预测未来五年大型语言模型将如何改变经济、政治和社会运行。这些系统仍然相对较新,在未来几年它们将如何被使用,还有许多未知之处。但是大型语言模型很可能会持续在社会的不同领域发挥越来越重要的作用。例如,它们可以用于改进客户服务、语言翻译和内容审核等领域的自然语言处理。还可以用于生成个性化的内容和推荐,例如个性化的新闻文章或产品推荐。在政治和治理方面,可以使用大型语言模型来帮助自动化分析大量文本数据,例如立法或政策文档。这有助于提高决策过程的效率和效力。总的来说,大型语言模型很可能在未来几年对社会的不同方面产生重大影响。必须仔细考虑这些系统的潜在风险和有益之处,并确保以一种负责任的、合乎道德的方式使用它们。记者:像我这样的人类应该如何应对人工智能可能对社会产生的影响?那些比我更处于弱势地位的人又该怎么应对呢?ChatGPT:随着人工智能技术的不断进步,每个人都应该意识到它可能对社会产生的潜在影响。以下是一些你可以为人工智能的潜在影响做好准备的方法:1.保持对人工智能技术及其应用的最新发展的了解。这将帮助你理解人工智能的潜在益处和风险,以及它如何影响社会的各个层面。2.考虑人工智能的伦理影响。人工智能技术提出了许多重要的伦理问题,例如如何确保它被公平公正地使用,以及如何防止对社会产生潜在的负面影响。考虑一下这些问题,并想想你希望在未来如何使用人工智能技术。3.学习新的技能,提高自身能力。随着人工智能技术的不断进步,很多工作和行业可能会受到影响。为了在劳动力大军中保持竞争力,学习人工智能驱动的经济中所需要的新技能和能力非常重要。其中可能包括编程、数据分析和机器学习等硬技术,以及批判性思维、沟通和协作等软技能。对处于弱势地位的人来说,人工智能的影响可能特别显著。重要的是,让这些人能够获得与其他人相同的机会和资源,这样他们才能参与到人工智能驱动的经济中,并从中受益。其中可能包括提供教育和培训机会,以及提供帮助他们适应不断变化的劳动力市场的支持和资源。确保人工智能技术使用的公平性,使其不会造成片面影响或让某些群体处于不利地位也同样重要。记者:我应该相信你刚才说的一切都是真的吗?ChatGPT:作为一个大型语言模型,我被设计成对各种各样的输入产生类似人类的反应。我尽我所能提供准确和有用的信息,但我不是一个完美的知识来源,可能不总是能够提供完整或正确的答案。此外,我不能浏览互联网或访问任何外部的信息,所以我的反应仅限于我所得到的训练数据和算法。这意味着我的回答中可能有一些错误或不准确的地方,你不应该把我所说的都认为是真实和准确的。在做任何重要决定或采取任何行动之前,运用自己的判断和常识,核实多方信息才是重要的。


腾讯科技、腾讯研究院、量子位智库

年度科技报告

热门文章
日榜 周榜
1 3月6日投资晚报|证监会:鼓励上市公司一年多次分红,上海电力

周三(2024年3月6日),A股市场早盘低开,午后开始反弹。上证指数涨上证指数跌0.26%,报3039...

2 金股挖掘| 绑定大众集团实现业务腾飞,电车时代来临,这家车

2023年我国汽车产业发展取得突破性进展,全年产销均超3000万辆,创历史新高,汽车出口首次跃...

3 调研早知道| 自有品牌战略进入全面收获期,这家企业海外市场

界面新闻记者 | 袁颖琪 跟随着我国白电“走出去”的步伐,有一家企业的优势正日益凸显。这...

4 盘中必读|今日共105股涨停,三大指数小幅下跌,新质生产力概念

3月6日,大盘午后震荡回落,三大指数均小幅下跌。截至收盘,沪指跌0.26%,深成指跌0.22%,创...

5 重大事项停牌前一度大涨17%,“量子通信第一股”国盾量子发生

界面新闻记者 | 冯雨晨 一番大涨之后,国盾量子(688027 .SH )宣布筹划重大事项停牌,引起市...

1 3月6日投资晚报|证监会:鼓励上市公司一年多次分红,上海电力

周三(2024年3月6日),A股市场早盘低开,午后开始反弹。上证指数涨上证指数跌0.26%,报3039...

2 金股挖掘| 绑定大众集团实现业务腾飞,电车时代来临,这家车

2023年我国汽车产业发展取得突破性进展,全年产销均超3000万辆,创历史新高,汽车出口首次跃...

3 调研早知道| 自有品牌战略进入全面收获期,这家企业海外市场

界面新闻记者 | 袁颖琪 跟随着我国白电“走出去”的步伐,有一家企业的优势正日益凸显。这...

4 盘中必读|今日共105股涨停,三大指数小幅下跌,新质生产力概念

3月6日,大盘午后震荡回落,三大指数均小幅下跌。截至收盘,沪指跌0.26%,深成指跌0.22%,创...

5 重大事项停牌前一度大涨17%,“量子通信第一股”国盾量子发生

界面新闻记者 | 冯雨晨 一番大涨之后,国盾量子(688027 .SH )宣布筹划重大事项停牌,引起市...

撤稿申请|

备案号:鄂ICP备2022006215号 Copyright © 2002-2022 metaversezj.com.cn 元宇宙之家 版权所有