AI全称人工智能,英文是Artificial Intelligence,缩写为AI.AI是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。
在过去的几十年中,虽然出现了许多关于人工智能(AI)的定义,但John McCarthy在2004年的论文中给AI提供了定义,"制造智能机器,特别是智能计算机程序。这与使用计算机来理解人类智能的类似任务有关,但是AI不必局限于生物学上可观察的方法。"
但是,在此定义之前的几十年,艾伦·图灵(Alan Turing )在1950年出版的开创性着作"计算机与智能技术"表示了人工智能对话的诞生。图灵,通常被称为"计算机科学之父"的论文,提出了以下问题:"机器可以思考吗?" 从那里,他提供了一个测试,现在被称为" Turing测试",在该测试中,人类询问者将尝试区分计算机响应和人类文本响应。尽管此测试自发布以来已经经过了严格的审查,但它仍然是AI历史的重要组成部分,并且因为它利用了围绕语言学的思想,因此成为哲学中一个持续存在的概念。
斯图尔特·拉塞尔(Stuart Russell)和彼得·诺维格(Peter Norvig)随后着手出版《人工智能:一种现代方法》,成为研究AI的主要教科书之一。在其中,他们深入探讨了AI的四个潜在目标或定义,它们基于理性和思维与行为来区分计算机系统:
人工方法:
像人类一样思考的系统
像人类一样运作的系统
理想方法:
理性思考的系统
行为合理的系统
艾伦·图灵(Alan Turing)的定义将归类为"行为类似于人类的系统".
人工智能是最简单的形式,它结合了计算机科学和强大的数据集,可以解决问题。它还涵盖了机器学习和深度学习的子领域,这些领域经常与人工智能结合使用。这些学科由AI算法组成,这些算法试图创建专家系统,这些系统根据输入数据进行预测或分类。
时至今日,仍然围绕着AI的发展大肆宣传,这是市场上任何新兴技术所期望的。正如Gartner的炒作周期所述,无人驾驶汽车和个人助理等产品创新遵循"创新的典型过程,从过度热情到幻灭时期,直至最终了解了创新的相关性和作用。在市场或领域中。" 正如Lex Fridman在2019年的MIT演讲中在此处指出的那样,我们正处于虚高期望的顶峰,接近幻灭的谷底。
随着围绕AI伦理学的对话涌现,我们可以开始看到幻灭低谷的最初一瞥。
AI的类型-弱AI与强AI
弱AI(也称为窄AI或人工窄智能(ANI))是经过培训的AI,专注于执行特定任务。弱的AI驱动了当今围绕我们的大多数AI.对于这种类型的AI,"窄"可能是一个更准确的描述,因为它绝非脆弱。它支持一些非常强大的应用程序,例如Apple的Siri,亚马逊的Alexa,IBM Watson和自动驾驶汽车。
强大的AI由人工智能(AGI)和人工智能(ASI)组成。人工智能(AGI)或通用AI是一种理论形式的AI,其中机器具有与人类相同的智力;它将具有自我解决的意识,能够解决问题,学习并为未来做好计划。人工超级智能(ASI)(也称为超级智能)将超越人脑的智能和能力。尽管强大的AI仍然完全是理论上的,没有实际的例子可供使用,但这并不意味着AI研究人员也没有探索其发展。同时,ASI最好的例子可能来自科幻小说,例如HAL,2001年的超人类流氓计算机助手:太空漫游。
深度学习与机器学习
由于深度学习和机器学习往往可以互换使用,因此值得一提的是两者之间的细微差别。如上所述,深度学习和机器学习都是人工智能的子领域,而深度学习实际上是机器学习的子领域。
深度学习实际上是由神经网络组成的。深度学习中的"深度"是指由三个以上的层组成的神经网络,其中包括输入和输出,可以被视为深度学习算法。通常使用下图来表示:
深度学习和机器学习的区别在于每种算法的学习方式。深度学习可自动执行过程中的大部分特征提取过程,从而消除了一些所需的人工干预,并允许使用更大的数据集。您可以将深度学习视为Lex Fridman在上述MIT相同演讲中指出的"可扩展机器学习".经典的或"非深度"机器学习更依赖于人工干预来学习。人类专家确定功能的层次结构以了解数据输入之间的差异,通常需要学习更多的结构化数据。
"深度"机器学习可以利用标记的数据集(也称为监督学习)来告知其算法,但不一定需要标记的数据集。它可以以其原始格式(例如,文本,图像)提取非结构化数据,并且可以自动确定将不同类别的数据彼此区分开的要素层次结构。与机器学习不同,它不需要人工干预即可处理数据,从而使我们能够以更有趣的方式扩展机器学习。
AI的应用
语音识别:也称为自动语音识别(ASR),计算机语音识别或语音转文本,它是一种使用自然语言处理(NLP)将人类语音处理为书面格式的功能。许多移动设备将语音识别功能集成到其系统中,以进行语音搜索(例如Siri)或在短信周围提供更多可访问性。
客户服务: 在线聊天机器人正在取代客户旅程中的人工代理。他们回答有关运输等主题的常见问题(FAQ),或提供个性化建议,交叉销售产品或为用户建议尺寸,从而改变我们对跨网站和社交媒体平台的客户参与度的思考方式。示例包括具有虚拟代理的电子商务站点上的消息传递机器人,诸如Slack和Facebook Messenger的消息传递应用程序,以及通常由虚拟助手和语音助手完成的任务。
计算机视觉: 这项AI技术使计算机和系统能够从数字图像,视频和其他视觉输入中获取有意义的信息,并基于这些输入采取行动。提供建议的能力将其与图像识别任务区分开来。在卷积神经网络的支持下,计算机视觉已在社交媒体的照片标签,医疗保健的放射成像以及汽车行业的自动驾驶汽车中得到应用。
推荐引擎:使用过去的消费行为数据,人工智能算法可以帮助发现可用于制定更有效的交叉销售策略的数据趋势。这用于在在线零售商的结帐过程中向客户提出相关的附加建议。
自动股票交易: AI优化的高频交易平台旨在优化股票投资组合,每天可进行数千甚至数百万笔交易,而无需人工干预。
AI的发展历史
"有思想的机器"的思想可以追溯到古希腊。但是,自电子计算技术问世以来(相对于本文中讨论的某些主题而言),人工智能发展中的重要事件和里程碑包括:
1950年:艾伦·图灵(Alan Turing)出版了《计算机技术与智能》。 在这篇论文中,图灵(以在第二次世界大战期间破坏纳粹的ENIGMA代码而着名)提议回答"机器能思考吗?"的问题。并介绍了图灵测试,以确定计算机是否可以演示与人类相同的智能(或相同智能的结果)。此后,人们一直在争论图灵测试的价值。
1956年:约翰·麦卡锡(John McCarthy)在达特茅斯学院(Dartmouth College)举行的首次AI会议上创造了"人工智能"一词。(McCarthy继续发明Lisp语言。)那年晚些时候,Allen Newell,JC Shaw和Herbert Simon创建了逻辑理论家,这是有史以来第一个运行的AI软件程序。
1967年:弗兰克·罗森布拉特(Frank Rosenblatt)制造了Mark 1 Perceptron,这是第一台基于神经网络的计算机,该神经网络通过反复试验"学习"了。仅仅一年后,Marvin Minsky和Seymour Papert出版了名为Perceptrons的书,这本书既是神经网络的标志性着作,又至少在一段时间内成为反对未来神经网络研究项目的论据。
1980年代:使用反向传播算法进行自我训练的神经网络在AI应用中得到了广泛的应用。
1997年: IBM的Deep Blue在国际象棋比赛(和复赛)中击败了当时的国际象棋冠军Garry Kasparov.
2011年: IBM Watson在Jeopardy击败冠军Ken Jennings和Brad Rutter !
2015年:百度的Minwa超级计算机使用一种称为卷积神经网络的特殊深度神经网络对图像进行识别和分类,其准确率高于普通人类。
2016年:由深度神经网络提供支持的DeepMind的AlphaGo程序在五场比赛中击败了世界冠军围棋选手Lee Sodol.
文章评论