评论:《错觉:AI如何通过数据挖掘误导我们》(美)【加里·史密斯 著 钟欣奕 译】【文字版_PDF电子书_下载】
- 老公鸟2019-12-31 23:57:58
原来只要量大,无意义的随机数中也可以很容易地发现相关性较高的关系-_-
- DustAndRust2022-11-18 13:31:30浙江
还可以,但这本书更像是在讲“有哪些扯淡的研究”,突然想到学术界对过度看重定量研究的一些批评。
- 未命名2020-03-31 19:41:30
作者怕不是段子手附体。前半挺有意思的,后续有点疲软,观点用尽。看完我只是对书中提到的那位知识发现教授念念不忘,想看他俩撕逼。
- ୧⍤⃝臭屁大王2020-03-06 18:19:01
可终于看完了...里面举的例子也太多了,来来去去无非就是那几条道理,但却用了一整本书来解释,作者用随机算法编造数据都编了好几章
- 比远方更远2019-12-03 21:41:28
神化由“错觉”推动,错觉由“数据”误导,数据由“AI”挖掘,AI被“神化”赋能……在由从数据到相关性再到模型的思维定势主导下所形成的完整闭环,不断地被强化、复制、放大,最终成为一个个遮蔽自我的神话,愈行愈远……
- J.2019-12-04 15:49:45
关于人工智能累积的困惑得到了解答。人工智能对比人类智能目前最大的区别就是没有通用智能,不能在多种情景下灵活运用它已知的东西。了解过很多提高人工智能的方法都是在经验学习的基础上提高,但始终不具备思考的能力,对事物没有常识性的感知,没有对数据来源好坏的判断。如果不是质的突破,人工智能的过度热捧不定会是下一个泡沫。任何用人工智能去取代人类思考能力的工作都要特别谨慎,尤其是研究人员,经常看到日新月异的研究结果只是单一依赖于数据的相关性,有的还是一流的研究杂志。格雷厄姆曾经说过,股市就是投票机,不对统计模型的合理性加以思考,依赖用AI来判断,只会制造效率更高的投票机。
- greatabel2020-03-14 16:29:49
#数据挖掘、模型、机器学习算法会误导的根本原因:意义本身来自人自身,这是机器目前或者永远不能给的。当然作为工具它们可以做我们的🚴♀️,用处很大,作者说的金融工程师4种类型,非常实在。 #沃森没被爆出来玩不下去前一直被我当作一个鉴别杠杆:能理解IBM某种程度是欺诈的,迟早玩不下去的一般技术理解力还是在线的。 #比较不能苟同的是:作者认为计算机做的这些都不是真正的智能。做人还是要实在一点,不能每次计算机解决了什么问题,就把这个问题说成“不是真正的智能”,是的,也许不是AGI,但是人类中知识也有很大一部分完全是概率性、知识性的,并不能说机器发现的知识都是偶然。
- sojeuhe2022-03-25 19:08:16
有的例子比如开篇的阿达耽误希拉里的问题,我对真实性比较怀疑🤨不过计算机本质还是计算,只是算的快慢多少的差别而已,而决策这种事儿确实有很多不可控因素。
- 希望2023-08-22 13:36:00浙江
书的主题还是挺吸引人的,不过内容太水。果然还是不能迷信大数据或是AI,需要自己独立思考啊!
- Jades Flower2022-08-24 02:42:41荷兰
原来是统计学相关读物哈~
- redyecc2022-06-17 00:55:53
1、目前的人工智能其实并不“智能” 截止目前为止,计算机只是比人类计算更快、记忆力更好。但是,最大的问题,目前的人工智能在常识性、自动识别、逻辑推理能力方面,都还很弱。 计算机的算法,都是人工设计的,也因为如此,不管有意无意,这些算法会存在漏洞或考虑不周,而这些问题,在非正常情况下,会造成和预期不一样的结果。某些情况下,如自动驾驶时,这些结果可能导致严重的后果,如撞车。如自动翻译,由于缺少上下文的理解,有时会有啼笑皆非的翻译结果。 2、人类趋利的本性导致技术的错误使用 其一,得州神枪手谬误1:瞄准数百个目标,只报告那些击中的情况。 其二,得州神枪手谬误2:找到一个模式,然后为其编造解释。
- 团长是文盲2023-07-29 11:46:18四川
一般般
- 清尘2023-02-26 13:08:02浙江
举例子么?大概就只是想说AI对人的影响力。
- 拓跋鸡换2020-05-18 11:18:26
关于在数据中寻找模型和规律的方法的确需要谨慎,特别是对数据挖掘下的新理论的强行解释
- Michael Tao2021-02-08 21:45:24
感觉一般般
- 拿破轮胎2020-04-29 15:40:57
过度的数据挖掘会导致出现任何想要的结论,只要数据量足够大就能挖掘出各种规律,过度拟合也应当避免。
- 落葉知秋可烹茶2021-01-10 10:59:53
滥用及过分依赖大数据的案例分析集合。使用工具的人别被工具带着走。
- 炭烤蜂窝煤2020-04-03 01:59:23
前三分之二太啰嗦了,大意是通过挖掘数据和模型来倒推解释和结论,会导致误判很多只是短暂相关的情况,即便和选用的数据吻合,也无法预测未来。 最后三分之一提到在招聘、犯罪学、军事等领域完全依赖人工智能会导致的歧视(黑匣子)、隐私侵犯、摆弄系统等问题,这部分的反思(尤其是歧视)还挺有意思的。
- 水木葳蕤2020-07-04 17:13:36
感觉数据挖掘想挖掘一些人类无法发现的现象,但是又无法通过具体显示原因解释,所以就不断堕入谬论。全书从头到尾都在举不同的例子说明,计算机的算法无法理解现实的真正意义。有一点很奇怪的是,难道数据能模拟出市场的随机性就说明市场是不可预测的么?书里用的例子似乎好几年前的,当时没有特别完善的数据挖掘技术,理论和计算能力也还不足,但是不能否认今天的技术已经进步很多,虽然还并不能完全像人类一样。