人工智能的人文主义
|
Elm是一种功能强大的js编译语言,主要用于前端Web开发。 Elm之所以与众不同,是因为它承诺永远不会出现运行时异常。用Elm编写的应用程序非常强大。 语言家族:ML。 (1) 非常好的错误消息 Elm编译器提供了我见过的一些最好的错误消息,这使该语言甚至对于初学者来说也更加容易上手。 (2) 错误处理 Elm如何处理错误?就像许多其他功能语言一样,使用Resultdata类型。 (3) 函数纯度 就像Haskell一样,Elm是一种纯函数式语言。 Elm是通过消除所有运行时异常来提高生产率,还是通过在所有地方强制执行功能纯净来使生产率降低?以我的经验,在Elm中进行任何重大的重构都是一场噩梦,因为其中涉及大量的"管道"。 自己决定,但我会拒绝Elm的这一特性。
(4) 选项过于自以为是 AI竞赛非常耗费资源(幻灯片16-24):最近,蒂姆尼特·格布鲁(Timnit Gebru)被Google开除,因为他的论文草稿概述了训练大型语言模型的金钱和生态成本。根据她的论文,在NAS上训练的0.2bi参数的Transformer大约需要100万美元。GPT-3拥有175bi。数学看起来对地球没有任何好处。 · 这次军备竞赛不会带我们到任何地方(幻灯片16-24):我认为,争取NLP突破的竞赛根本不会带来真正的突破。GPT-3在类固醇上几乎是GPT-2。考虑到上面提到的Microsoft DeepSpeed,我们将继续看到媒体上出现models肿的模型,并且通过这种努力在理解上不会有有意义的结果。 · 大学跟不上,还是可以?(幻灯片22):任何AI部门都无法跟上大型技术。大学需要玩另一种游戏。小型模型研究可能以对数成本带来尽可能多的性能。但是,目前,公司是有关高效学习的领先研究者。例如,MobileNet / EfficientDet是Google的,ShuffleNet是Face ++的。 · Transformer很显眼(幻灯片29):这些模型基于注意力机制,这是众所周知的耗电和耗资源的问题,因为给定N个元素序列,该机制为N²。有效关注是一个热门话题,但尚未有解决方案被宣布为赢家。上面提到的大多数AI成本都可以追溯到此机制。 · 生物学正在经历其"人工智能时刻"(幻灯片30):的确如此。有了AlphaFold 2,我们可能会在这十年中看到生物学方面的重大突破,就像我们在2010年代通过AlexNet和Computer Vision看到的那样。 · 基于AI的筛查乳房X线照片(幻灯片34):这是一篇引起争议的文章。它声称具有超人的性能,但缺乏可解释性,到目前为止,尚未发布任何代码或数据集供第三方检查和复制。这篇广为宣传的文章引起了全球研究人员的热烈响应,共同表示"透明性和可重复性在人工智能研究中的重要性。"作为一个社区,我们必须努力打破AI成为愚蠢的准确性竞赛的障碍。医生如何信任黑匣子算法? 人才(幻灯片63-81) · 人才外流(幻灯片64):虽然这是关于人工智能和2020年的,但我不禁要提到这种观点以美国为中心。所有提到的大学都位于美国。大脑一直在运动,特别是从发展中国家到富裕国家。恰好这次大学是"穷国",公司是"富国"。 · 离职与企业家精神下降有关(幻灯片66):我认为这种联系很差。市场上公司充斥着人才,缺乏人才,这对于更多公司来说是一个糟糕的环境。幻灯片73同意,因为大多数博士都是外国人,而且外国人更可能加入大公司而不是自己创业。 · 在NeurIPS(幻灯片70)上受中国教育的研究人员的贡献:与中国成为AI领导者的计划有关。
· 在美国工作的大多数顶级AI研究人员都没有在美国接受培训(幻灯片71-75):这些幻灯片指出了一个简单的事实:美国高度依赖外国人才。大多数学生会获得博士学位并留在科技公司工作。仇外法律对美国不利。但是… (编辑:盐城站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |

