读AI3.0笔记05_人类与机器学习

躺柒 2024-01-23 16:09:52

1. 人类与机器学习的关键差距1.1. 老式人工智能使用的是人类程序员对智能行为构建的显性规则1.2. DNN这种“从数据中学习”的方法已被逐渐证实比“普通的老式人工智能”策略更成功1.3. ConvNets的学习过程与人类的学习过程并不是很相似1.3.1. ConvNets在多个周期中一遍又一遍地在训练样本上处理图像示例并逐步调整自身权重,来学会将每个输入划分为一个固定类别集合中的某个类别1.3.2. 为了让ConvNets学会执行一项任务,需要大量的人力来完成收集、挑选和标注数据,以及设计ConvNets架构等多方面的工作1.4. ConvNets使用反向传播算法从训练样本中获取参数(即权重)1.4.1. 学习是通过所谓的超参数(hyperparameters)集合来实现的1.4.2. 超参数是一个涵盖性术语,指的是网络的所有方面都需要由人类设定好以允许它开始,甚至“开始学习”这样的指令也需要人类设定好1.4.3. 超参数包括:网络中的层数、每层中单元感受野的大小、学习时每个权重变化的多少(被称为“学习率”),以及训练过程中的许多其他技术细节1.4.4. 目前神经网络还无法自学超参数调节1.5. 孩童不是被动地学习,而是主动提出问题,他们想要了解自己感兴趣的事物的信息,他们会推断抽象概念的含义及其联系,并且最重要的是,他们积极地探索这个世界1.6. 机器学习领域的学生通常会从他们追随的专家那里,以及自己来之不易的经验中获取它1.7. 随着深度学习系统在物理世界实际应用的激增,很多公司发现需要大规模的新标记的数据集来训练DNN1.7.1. 网络学会的是将具有模糊背景的图像分到“包含动物”这一类别,无论该图像是否真的包含一只动物1.7.2. 机器学到的是它在数据中观察到的东西,而非我们人类可能观察到的东西1.8. 依赖于收集到的大量已标注的数据来进行训练是深度学习不同于人类学习的另一个特点1.9. 人类具有一种当前所有的人工智能系统都缺乏的基本能力:运用常识1.9.1. 我们拥有关于这个世界的体量庞大的背景知识,包括物质层面及社会层面1.9.2. 背景知识都被注入我们人类的能力中,支持我们稳定地识别给定目标,即便是当今最成功的人工智能视觉系统,也尚且缺乏这种理解能力及在目标识别方面的稳定性1.9.3. 我们对现实世界中的事物会如何行动或变化有充分的了解,无论它是无生命的还是有生命的1.9.4. 我们广泛地运用这些常识来决定如何在特定情况下采取行动1.9.5. 人类通常在生活的方方面面都会本能地运用常识1.10. 通过监督学习训练的DNN,在计算机视觉、语音识别、文本翻译等领域的许多任务上都表现得非常出色,尽管还远不够完美1.10.1. 研究人员正在努力使DNN变得更加可靠和透明1.11. 列出推导过程是DNN这一现代人工智能系统的基石所无法轻易做到的事情1.11.1. 对于一个一般大小的网络,其运算可能会达到数十亿次1.11.2. 1个10亿次运算的列表不是一个普通人能接受的解释1.11.2.1. 即使是训练深度网络的人通常也无法理解其背后隐藏的原理,并为网络做出的决策提供解释1.11.3. 如果我们不理解DNN如何解答问题,我们就无法真正相信它们,或预测它们会在哪种情况下出错1.12. 当考虑其他人时,你具有心理学家所说的一种心智理论:理解他人在特定情况下所运用的知识和可能会选择的目标1.12.1. 对于像DNN这样的人工智能系统,我们并没有类似的心智理论作为支撑,这就使得我们更难信任它们1.13. 扰动不影响人类对其中对象的识别,却可能导致ConvNets出现严重错误1.13.1. ConvNets和其他那些在目标识别方面“超越”人类的网络的这种意想不到的脆弱性,表明它们在其训练数据上出现了过拟合,而且学到了一些与我们试图教给它们的不同的东西1.14. 研究人员发现,人类若要秘密地诱导神经网络犯错,那简直是意想不到地容易1.14.1. 对于任意一幅由AlexNet正确分类的来自ImageNet的图片,都能够找到特定的变化点来创建一个新的对抗样本图片,使得新图片对人类来说看起来没有变化,却会导致AlexNet以极高的置信度给出一个错误答案1.14.2. AlexNet对于对抗样本的这种低敏感性并不特殊1.14.3. 如果漏洞未得到修补,DNN这艘“船”早晚会沉下去1.14.4. 能够设计出具有特定图案的眼镜框的程序,愚弄了一个人脸识别系统,使其自信地将眼镜框的佩戴者错误地识别为另外一个人1.14.5. 可放置于交通标志上的不显眼的小贴纸,导致一个基于ConvNets的视觉系统(类似于自动驾驶汽车中使用的视觉系统)对交通标志进行了错误的分类1.14.6. 将一个停车标志识别为限速标志1.14.7. 从以99%置信度显示目标图像分类为无癌症,到以99%置信度显示存在癌症1.14.8. 用于制造欺诈性诊断,以便向保险公司索取额外的诊断测试费用1.14.9. 一些能够愚弄用于语言处理(包括语音识别和文本分析)的DNN的攻击手段1.15. 如果在计算机视觉和其他任务上表现得如此成功的深度学习系统,很容易被人类难以察觉的操作所欺骗,我们怎么能说这些网络能够像人类一样学习,或在能力上可以与人类媲美甚至超过人类呢1.15.1. 目前在计算机视觉应用中使用的ConvNets通常是完全前馈的,而人类视觉系统则具有更多的反馈连接1.16. 对抗式学习是指:制定策略来防御潜在的人类对手攻击机器学习系统1.16.1. 以一种人类难以察觉但却会引发网络改变对图像的分类的方式来改变X射线或显微镜图像,是不难做到的1.16.2. 许多可能的攻击已经被证实具有惊人的鲁棒性:它们对很多网络都能起作用,即便这些网络是在不同的数据集上训练的1.17. 了解和防御此类潜在的攻击是目前人工智能的一个主要研究领域1.17.1. 目前为止的研究具有一种“打地鼠”的特点,即一个安全漏洞被检测出来并被成功防御后,总是会发现新的需要防御的漏洞1.18. 我理解自己在做什么,我掌握了正确的抽象概念并且以正确的推理得到了答案1.18.1. 人类也并不总是能够解释自己的思维过程1.18.2. 你无法通过观察别人的大脑内部或者他们的直觉来弄清楚他们是如何做出特定决策的1.18.3. 人类倾向于相信其他人已经正确地掌握了基本的感知能力,例如目标识别和语言理解能力2. 大型科技公司2.1. 免费服务:网络搜索、视频通话、电子邮件、社交网络、智能助理2.2. 他们真正的客户则是那些获取我们在使用这些免费服务时的注意力和信息的广告商2.3. 我们会以图像、视频、文字或语音等形式直接为这些公司提供样本2.3.1. 这些样本可供公司更好地训练其人工智能程序,这些改进的程序能够吸引更多用户来贡献更多数据,进而帮助广告商更有效地定位其广告投放的对象2.4. 我们提供的训练样本也可被公司用于训练程序来提供企业服务,并进行商业收费,例如计算机视觉和自然语言处理方面的服务3. 自动驾驶汽车3.1. 汽车需要复杂的计算机视觉功能,以识别车道、交通信号灯、停车标志等,以及辨别和追踪不同类型的潜在障碍物3.1.1. 其他汽车、行人、骑自行车的人、动物、交通锥、翻倒的垃圾桶、风滚草,以及其他任何你可能不希望汽车会撞到的对象3.2. 深度学习将有助于这项任务的实现,至少在某种程度上是如此,但这同样需要大量的训练样本3.3. 对特斯拉而言,这些汽车就是由客户驾驶的汽车,在客户购买特斯拉汽车时,需要接受该公司的数据共享条款4. 长尾效应4.1. 长尾效应常常会让机器犯错4.1.1. 长尾就是指人工智能系统可能要面临各种可能的意外情况4.1.1.1. 这一长串可能性低,但却可能发生的情况被称为该分布的“尾巴”,尾巴上的情况有时被称为“边缘情况”4.1.2. 不太常见的情况是自动驾驶汽车遇到了被水淹没的道路或被雪遮挡住的车道标志4.1.2.1. 在高速公路的中央遇到一个雪人,则是更加不常见的情况了4.1.3. 面对如此多数不清的可能场景以及巨大的车流量,总会有某辆自动驾驶汽车会在某个时间、某个地点遭遇其中的一种情况4.2. 现实世界中的大部分事件通常是可预测的,但仍有一长串低概率的意外事件发生4.2.1. 尾部的情况并不经常出现在训练数据中,所以当遇到这些意外情况时,系统就会更容易出错4.3. 许多公司也正在探索利用类似于视频游戏的模拟驾驶程序来强化有监督的训练4.4. 监督学习方法并不是一条通往通用人工智能的可行途径4.5. 对大量数据的需要是目前限制深度学习发展的主要因素4.5.1. 我们不可能对世界上的所有事物都进行标注,并一丝不苟地把每一个细节都解释给计算机听4.6. 针对他们能想到的所有不太可能的场景编写了相应的应对策略4.6.1. 他们显然无法穷尽系统可能遇到的所有场景5. 无监督学习5.1. unsupervised learning5.2. 让人工智能系统在少量标注数据上进行监督学习,并通过“无监督学习”(unsupervised learning)来学习其他所有的内容5.3. 无监督学习是指在没有标记数据的情况下学习样本所属类别的一系列方法5.4. 基于相似度来对样本进行分类的方法,或者通过与已知类别进行对比来学习新类别的方法5.5. 对抽象事物的感知以及类比是人类擅长的,但到目前为止,还没有特别成功的人工智能算法来实现这种无监督学习5.6. 无监督学习是人工智能的暗物质5.6.1. 杨立昆5.6.2. 对于通用人工智能,几乎所有学习都应该在无监督方式下进行,然而,还没人提出过成功进行无监督学习所需的各种算法6. 有偏见的人工智能6.1. ConvNets的不可靠性有时会导致尴尬的错误,甚至有害的错误6.2. 用“大猩猩”标注了一张两名非裔美国人的自拍照6.2.1. 在由深度学习驱动的视觉系统中,这种由种族或性别歧视导致的错误虽然不易察觉,却经常被观测到6.3. 商业人脸识别系统识别男性白人的脸要比识别女性或非白人的脸更加准确6.3.1. 网上出现的人脸照片更偏向于那些知名的或有权势的人,他们主要是白人和男性6.4. 有偏见的数据集上训练的人工智能系统,如果在真实世界的应用中传播开来,就能够放大这些偏见并造成真正的危害6.5. 在种族群体上识别准确率的细微差异,也会对公民权利和获得关键服务的机会产生破坏性影响6.6. 会偶尔错误地将一个站在厨房里的男士归类为“女士”,这是因为在数据集中厨房多是一种包含女性样本的场景6.6.1. 这种细微的偏见在事后会很明显,但却很难被提前发现6.7. 用于训练人工智能的数据集是否应该准确地反映我们本来就存有偏见的社会?
0 阅读:0

躺柒

简介:书既能读薄也能读厚,输出才能检验输入,完成才能完善。