人工智能一词是由计算机科学家约翰·麦卡锡在1956年创造的。当时的背景是在新罕布什尔州New Hampshire 达特茅斯学院Dartmouth College举行的一场研讨会,目的在于“找到如何使机器能够使用语言,理解抽象的概念,解决目前人类各种遗留问题,并实现自我改进”的方法。从那时起,这个人工智能的概念就诞生了。
了解人工智能,不能忽略的另外的一个概念就是,神经网络neural networks 因为人工智能研究的核心是一种受人类大脑启发的计算机程序,称为神经网络,每个网络由大量连接的数字神经元组成。我们通过感官接收输入,而这些人工智能接收的输入是数据,比如图像、音频或文本。作为对输入的响应,我们的大脑中会产生混乱而复杂的神经元之间的兴奋性突触序列sequences of firing synapses ,而人工神经网络则以更加系统化的方式处理数据。通过将大量数据传递给神经网络并将其输出与已知的预期结果进行对比,可以训练神经网络完成特定任务。例如,要创建一个能够转录手写的人工智能,可以反复向神经网络展示写字的样本,并将其输出与已知文本进行对比。
然后,网络中连接的值将被更新,直到输出接近所预期的结果。如果对数以百万计甚至十亿计的训练数据进行这样的操作,你将得到一个转录以前从未见过的笔迹。同样的方法也支持智能手机上的人脸识别功能、根据文本提示创建逼真图像的人工智能模型,以及大型语言模型,几乎所有当前的人工智能研究都基于神经网络。
我们来带着大家一起来看看AI发展的时间线,1950年,数学家艾伦·图灵Alan Turing提出了一种名为模仿游戏the imitation game的理论测试,用于判断机器是否能够思考。从那时起,图灵测试已成为人工智能的一个基准,我相信大家都看过模仿游戏这部电影。
1956年,就是我们刚刚提到的在 新罕布什尔州New Hampshire 的 达特茅斯学院Dartmouth College举办了第一届机器智能会议,人们普遍感到该领域的进展可能非常迅速。正是在那研讨会里,人工智能这个术语被创造出来。
还是同年1956年,一个名为“逻辑证明器(Logic Theorist)”的程序,被描述为第一个人工智能程序。它证明了数学文本《数学原理》(Principia Mathematica)中的前52个定理中的38个。
1958年,心理学家弗兰克·罗森布拉特(Frank Rosenblatt)构建了第一个人工神经网络,称为感知器(Perceptron)。它能够识别简单的视觉模式,但很快就清楚地认识到它的能力和效用是有限的。
1966年,早期的语言人工智能ELIZA完成了。它给人一种与人类进行自然对话的错觉。但实际上,它的模式匹配算法无法理解真正的语言含义。
1979年,斯坦福小车(Stanford Cart)是一款简单的移动机器人,它独自穿过了一个摆满椅子的房间。虽然这个过程花费了5个小时,但它是自主驾驶车辆的早期示例。
1997年, IBM的国际象棋超级计算机“深蓝” Deep Blue击败了国际象棋特级大师加里·卡斯帕罗夫Garry Kasparov ,六局比赛中三胜一平,它依靠强大的计算能力来寻找最佳走法。
2011年,苹果发布了Siri,一款由人工智能驱动的手机助理,可以用自然语言指示执行基本任务,其背后的基础同样也是神经网络。
2016年,Google公司DeepMind的AlphaGo人工智能以4比1的胜利击败了顶级围棋选手李世石。后来,李世石在2019年退役,理由为,受了人工智能的打击实在太大。
2022年, DeepMind的AlphaFold人工智能在仅仅18个月内预测了几乎所有已知蛋白质的结构。此前,科学家需要数年时间才能揭示单个蛋白质的结构。
真正的重头戏也是出现在2022年, OpenAI发布了一个名为ChatGPT的人工智能聊天机器人,向公众提供了使用权,加速了商业化生成式人工智能和大型语言模型的竞争。
好了,在此我们可以展望一下未来,生成式人工智能被广泛用于各种任务,包括生成报告、提供客户服务、获取信息和编写计算机程序等。它成为了一种广泛应用的工具。这也是OpenAI下一步的方向,建立基于人工智能的生态,将AI以plugin的形式,嵌入各项各业。
刚刚我们简单概括了AI发展的时间线,我们回到当下,目前的人工智能与以往任何时刻都不同,强大的基于语言的人工智能在能力上有了巨大的飞跃,现在可以产生大量看似真实的文章,几乎无法与人类撰写的文本区分开来。它们可以回答复杂的技术问题,比如那些向律师和计算机程序员提出的问题。它们甚至可以帮助更好地训练其他人工智能。当然,律师和程序员要小心啦。
当然,任何事情进步的太快,也引发了严重的担忧。知名的人工智能研究人员和科技行业领导者呼吁研究实验室暂停进行最大规模的人工智能实验,至少暂停六个月,以便有足够的时间开发和实施安全准则。此前意大利的监管机构更进一步,临时禁止了人工智能聊天机器人的使用。
这一切的核心是大型语言模型和其他类型的生成式人工智能,它们可以根据人类的提示创造文本和图像。从2022年以来,得到全球最强大科技公司支持的初创企业一直在加速部署这些生成式人工智能,通过以人工智能生成的文字和图像将很快淹没互联网,也现在这种方式可能会重塑我们的社会,大家可以翻看一下我曾经的节目(如果AI使诈)
所以,那些致力于推动可能性的边界以及那些呼吁克制的人似乎都在同意一件事:生成式人工智能可能比之前的人工智能具有更广泛的社会杀伤力。
从我们上面回看到的AI发展简史,对于寻求改进人工智能学习能力的研究人员和寻求商业利益人工智能的公司来说,得益于计算机能力的巨大提升和数据的可用性,大家一定关注到最近英伟达的股票大涨。
说到主角,自然是引爆这场爆炸的火花的来自旧金山的OpenAI,该公司在2022年11月30日推出了其基于人工智能的聊天机器人ChatGPT的公共原型,仅仅在五天内就吸引了100万用户。作为OpenAI的数十亿美元投资者,微软在随后的二月份通过其必应Bing搜索引擎推出了一个由与ChatGPT相同技术驱动的聊天机器人,这显然是挑战谷歌长期主导搜索引擎市场的明显尝试。
这促使谷歌在今年三月份做出回应,推出了自己的人工智能聊天机器人Bard。谷歌还向Anthropic投资了3亿美元,Anthropic是由前OpenAI员工创立的一家人工智能初创公司。Anthropic公司于三月份开始向一部分人和商业合作伙伴提供其Claude聊天机器人。同时,百度、阿里巴巴等中国的大型科技公司也加入了将人工智能聊天机器人整合到搜索引擎和其他服务中的竞争中。
这些生成式人工智能已经开始影响教育等领域,一些学校已经禁止使用ChatGPT,因为它能够生成完整的文章,往往与学生的写作难以区分。软件开发人员已经展示了ChatGPT可以找到和修复编程代码中的错误,以及从头开始编写某些程序。房地产经纪人已经开始使用ChatGPT来生房屋销售文案和社交媒体帖子,律师事务所则采用AI聊天机器人起草法律合同。美国政府研究实验室甚至正在测试OpenAI的技术如何快速筛选已发表的研究,以帮助指导新的科学实验
根据高盛投资银行分析师的一份报告,预计约有3亿个全职工作可能面临被生成式人工智能自动化的情况,这取决于“生成式人工智能是否能够兑现其承诺的能力”
显而易见的是,生成式人工智能的真实风险也迅速显现出来。ChatGPT和其他聊天机器人经常出现事实错误,引用完全捏造的事件或文章,包括一个案例中虚构的性骚扰丑闻,错误地指控了一个真实的人。ChatGPT的使用还导致了数据隐私,涉及机密公司数据的泄露,以及ChatGPT用户能够看到其他人的聊天记录和个人付款信息。
艺术家和摄影师对AI生成的艺术作品对其职业生计构成威胁提出了额外的担忧,与此同时,一些公司在未向这些艺术家和摄影师提供补偿的情况下,使用他们的作品来训练生成式人工智能。AI生成的图像也可能导致大规模的错误信息传播,就像虚假的AI生成的唐纳德·特朗普被逮捕的照片都在网络上迅速传播开来。完全人被愚弄,误以为这些照片是真实的。
普林斯顿大学的Arvind Narayanan表示,人工智能在识别图像、根据主题分类文章,和将口语转化为书面语方面取得了显著进展。通过反转这一过程,它们可以在给定描述的情况下生成合成图像,撰写关于特定主题的论文,或者将书面文本转化为音频版本。在这我要为自己打个广告,我们的ai.vidude.com已经上线,除少数UI在持续润色中, 核心AI服务已经全部成型,其服务满足上述所有功能。
大型语言模型堪称是工程上的壮举,使用由微软和谷歌等公司运营的数据中心中的大量计算能力。它们需要海量的训练数据,这些数据通常是从互联网上的公共信息库(如维基百科)中获取的。该技术还依赖大量的人工参与,在训练过程中提供反馈,以引导人工智能朝着正确的方向发展。是不是觉得向我们这样的草根创业很无望,明显算力不够。
我们再回到OpenAI,尽管它起初是一个致力于开放式AI开发的非营利组织。当OpenAI将ChatGPT的基础AI技术升级为GPT-4时,该公司考虑到“竞争环境和GPT-4等大规模模型的安全影响”,于是决定不公开该模型工作原理。当然除了商业利益之外,大型科技公司发布的强大人工智能往往是封闭系统,限制了公众或外部开发者的访问。封闭系统可以帮助控制潜在的风险和危害,这是基本的共识。
我们也给大家说说不同的声音,OpenAI的使命宣言称该公司致力于传播人工智能的益处,即能够在各种智力任务上胜过人类的人工智能。然而,ChatGPT远未达到这个目标,埃隆·马斯克等科技行业人士签署了一封公开信,要求研究实验室暂停人工智能实验。
欧盟立法者正在最后阶段制定《人工智能法案》,该法案将成为全球首个针对调控这项技术的广泛标准。该立法旨在禁止或调控高风险的人工智能技术,关于是否将ChatGPT和类似的通用型生成式人工智能列为“高风险”类别,目前仍在进行辩论。与此同时,意大利监管机构暂时禁止ChatGPT,担心其可能违反现行的数据隐私法律,我们在之前已经提到过。
接下来我们听听OpenAI的CEO Sam Altman的声音,ChatGPT目前无法取代传统的搜索引擎。但在接受《福布斯》采访时,他暗示人工智能有朝一日可能以一种“完全不同且更酷”的方式改变人们在网上获取信息的方式。他还考虑了更加极端的未来情景,涉及强大的人工智能普遍超越人类。他描述了“最好的情况”,即人工智能能够“改善现实的各个方面,让我们过上最好的生活”,同时警告称“最糟糕的情况”可能意味着“我们所有人都会玩完”。然而,他认为当前的人工智能发展距离达到人工通用智能还有很长的距离。
好了,今天说了这么多,我们来几点总结,为什么ChatGPT如此优秀?OpenAI的聊天机器人ChatGPT采用了一种名为Transformer的神经网络,该网络是由Google于2017年发明的。Transformer通过尝试在评估数据输入时,系统地关注最重要的部分,并同时对其他部分进行处理来改进标准神经网络。这在一定程度上有助于创建上下文的关联性。我们听听专家怎么说,纽约大学的Samuel Bowman表示,像ChatGPT这样的人工智能令人印象深刻,但其结果主要取决于规模和大量的训练数据。他说:“没有什么重大、深入的创新,Transformer背后只是一种特定的组合方式,恰好与硬件和可靠性非常匹配,能够运行大规模的实验。”
生成型人工智能是否具有意识?一些研究人员,包括来自大型科技公司的研究人员,表示一些最新的生成型人工智能显示出意识的迹象。然而,其他人对此强烈持不同意见。英国伯明翰大学的马克·李表示,智能是一个连续的谱,而不是一个终极目标。即使是简单的物体,比如温度调节器,它们以可预测的方式对温度做出反应,也可以说具有初级的智能。因此,驱动ChatGPT的GPT-4人工智能可以被认为处于这个谱的某个位置,但它肯定不具备意识。
AI能否真正具备智能?英国伯明翰大学的马克·李表示,我们大脑的运作方式是无法被复制。然而,他认为类似人类的人工通用智能不会通过那些人工智能项目出现,而是会从一个无关的项目中出现。有点无心插柳柳成荫的感觉,他说:“比如我们建立了某个模拟模型,它决定不想和我们人类一起玩了。或者它想偷懒。”“那就是人工通用智能的时候。”一些研究人员认为,现有的人工智能技术只需要进行一些微调和时间,就可以达到这个水平。技术的进步正在探索不同的途径,比如改变神经网络,使其更接近我们大脑中的神经元网络,以便更好地创建上下文链接。