留园首页  新闻速递首页  热评新闻榜  新闻评论公告  72小时神评妙论  即刻热度新闻 
[15楼]评论人:nanami77307 [布衣] [个人频道] [个人动态] 发送时间: 2023年11月07日 13:44:39 【回复】
 回复12楼:人類或生物會有意識,AI能分析數據自我改善卻不能有意識。意識這個東西真的很玄妙。是什麼賦予意識呢。AI在很遠的未來是否會有意識呢。讓AI有意識會是件值得追求的事嗎?
不過說到底目前AI開發再怎麼描述的花里胡俏,還只是另一種新科技。來方便民眾生活或者提供生活來源。人類總是從方便中發現新的生活方式從而進化(很多人說退化⋯ 應該是兩件不同觀點)。用AI還是得學習。不學習才會退化。
   
[14楼]评论人:wilburwang [★品衔R5★] [个人频道] [个人动态] 发送时间: 2023年11月03日 3:28:20 【回复】
确实算是“人类”意识,因为都是人类灌输的意识。去chatGPT上问问,以色列有没有建国的权利,答案“有”,问道巴勒斯坦,答案“这个问题很复杂”,草泥马
1   
[13楼]评论人:有人有糨糊 [品衔R2☆] [个人频道] [个人动态] 发送时间: 2023年11月03日 1:01:00 【回复】
只能说这些做AI的已经想忽悠想到把自己忽悠瘸了
   
[12楼]评论人:4554 [布衣] [个人频道] [个人动态] 发送时间: 2023年11月02日 23:54:17 【回复】
 回复7楼:文章采用了通俗的语言和比喻,试图解释人工智能(AI)和机器学习(ML)的基本原理,并且描述了AI的强大能力。然而,文章的描述有几处不准确或过于简化的地方:
模型通用性的误解:文章暗示只需要几个数学公式就可以解决所有问题。实际上,虽然深度学习模型背后的算法可以适用于多种不同的任务,但每个任务通常都需要针对性地设计网络结构、损失函数和优化算法。而且,不同类型的问题(如图像识别、语言翻译、游戏策略)通常需要不同的模型架构。
数据和预测的误解:文章提到的“输入参数”和“得到你想要的结果”这一过程忽视了机器学习中数据质量、数据标注和模型泛化能力的重要性。模型的预测仅仅基于训练数据中的模式,并且预测结果受限于训练数据的分布。如果输入的数据中包含偏见或噪音,模型的输出也可能会出现偏差。
逆向工程规则的过度简化:虽然机器学习确实试图从数据中发现规律,并通过这些规律做出预测,但这个过程远不如文章所描述的那么简单。大部分深度学习模型是“黑箱”,即我们无法直接理解内部的决策过程,因为它们涉及数百万甚至数十亿个参数的复杂交互。
人类意识的误解:文章提到AI开始产生了人类意识,这是不正确的。AI目前还远未达到具备意识的阶段,它只是根据数据运行算法,并没有自我意识。深度学习是在统计意义上进行模式识别,而不是产生或模拟意识。
预测的准确性过于乐观:文章提到可以“百分之90的可能性”得到想要的结果,这是过于乐观的。即使是最先进的AI系统,也不能在所有情况下提供90%的准确率。准确率高度依赖于问题的复杂性和数据的质量。
违背常识的模型预测:提到AI可能导出一些违背常识的模型(如“往心脏偏左0.0003毫米的地方开一个口子,可以治愈梅毒”)。实际上,AI的预测必须建立在科学原理和经验证据上,不能仅仅依靠数据驱动得出结论,特别是在医学和其他需要严格验证的领域。
总的来说,这篇文章试图通俗化地解释AI,但实际上过于简化并且很多都在误导。AI是一个复杂的领域,它的能力和限制都要比文章描述的要复杂得多。AI给这篇的文章总结:做键盘侠之前还得多读书。
1  1 
[11楼]评论人:BOBOLI [★品衔R5★] [个人频道] [个人动态] 发送时间: 2023年11月02日 21:33:13 【回复】
出了意识也是个盎撒白左

来自留园官方客户端

1   
[10楼]评论人:purejerry [☆品衔R3☆] [个人频道] [个人动态] 发送时间: 2023年11月02日 21:01:41 【回复】
自我學習...產生新的rule base
1   
[9楼]评论人:虎皮猫A [☆品衔R4☆] [个人频道] [个人动态] 发送时间: 2023年11月02日 20:54:52 【回复】
不许忽悠我,我得你断电, 看你还有意识?
1   
[8楼]评论人:千奇百怪党 [☆★声望品衔7★☆] [个人频道] [个人动态] 发送时间: 2023年11月02日 20:20:16 【回复】
什么意识?硅胶做的?晶片有意识?他根本不知道自己在说什么。
1   
[7楼]评论人:pickyone [★★声望品衔10★★] [个人频道] [个人动态] 发送时间: 2023年11月02日 19:45:34 【回复】
诸位大哥可能还没有意识到这个AI 的厉害。大家读书可能读的太多了,把问题想复杂了,所有需要初中毕业的不才,给大家大白菜一下,什么是AI ,为什么AI 牛逼。
AI ,尤其是现在的深度网络学习算法,说白了,其实就是用几个数学公式,把你想要学习的一切东西,诸如如何打炮舒服,怎么可以考入MIT, 如何勾引别人的女朋友等等一切,给建模,也就是给出一个准确的预测公式, 类似Y=X+23这样的数学公式。Y 就是你想要的结果,打炮,勾引女孩,考入MIT, X 就是变量,输入什么东西,就可以一定,百分之90的可能性,能得到你想要的结果。
注意,这个建模用的数学公式,也就是深度网络神经学习模式,无论你的要求是什么,都是运用同样的几个数学公式,唯一不同的是输入的参数不一样。
那诸位大哥可能会怀疑了。凭什么你输入一些参数,运用同样的几个万能的涵盖所有建模的数学公式,就能得到你需要的结果。这不是扯淡吗,这不科学。
其实这非常科学。
原因就在于,我们人类,尤其是同一文化,同一国家的人群,他们“看到”的,“听到的”,或者记录在案的所有“观察结果”,其实就已经是通过过滤后得到的观察结果,这个过滤的东西,其实就是一条,十几条,或者上百条的规则,或者说数学公式,只不过我们没有意识到而已。神经病人说出的话,观察到的东西,我们不会认为这些东西是”观察的“,永远不会进入我们现有的信息库里,因为我们默认,这些神经病人的言谈举止,是不理性的。
对了,我们现在观察的一切现象,都是一些规则下的产物。现在我们有了很多观察到的数据,比如张三考入了MIT, 李四骗到了大美女。。。其实这些”结果“,都是一些规则下的产物。现在我们就是要由规则下的产物,也就是数据,反推产生除这些结果的规则,也就是数学公式,模型。这其实就是一个循环论证。就类似y=3x, x 输入2, 我们得到6,输入4,y得到12等等。现在我们有一堆数据,数据, y=12, x=3; y=18, x=6...AI 就是通过一个或者几个数学公式,推到除这个函数y=3x.
文中说,现在的AI 开始产生了人类意识了。说白点,就是,通过输入大量的观察到的数据,给几个数学公式,通过计算机的大量计算,计算机可以推到除十几个,几个的数学公式,数学模型,也就是规则。这几个,数十个数学模型,其中有几个也许是我们人类现在的”共识“,大家都认可的,比如往胸口开一枪,人就完蛋,但是也有些模型,或者数学公式,不是我们人类到目前为止能够了解和理解的,比如AI 导出一个模型是,往心脏偏左0.0003毫米的地方开一个口子,可以治愈梅毒!
诸位大哥。现在明白AI ,以及AI 到地厉害在哪里吗。
6  1 
[6楼]评论人:aegeanboat1 [☆品衔R3☆] [个人频道] [个人动态] 发送时间: 2023年11月02日 19:37:33 【回复】
天天在这pump,也阻挡不了ChatGPT快速失宠的速度。

来自留园官方客户端

2   
[5楼]评论人:基地老二 [★澳洲老玩童★] [个人频道] [个人动态] 发送时间: 2023年11月02日 19:23:56 【回复】
人类迟早会被AI玩完,留下的就像现在动物园里的猴子一样。
1   
[4楼]评论人:传播***** [品衔R2☆] [个人频道] [个人动态] 发送时间: 2023年11月02日 19:18:43 【回复】
此评论已被删除或屏蔽,相关原因说明,请查看新闻评论公告
1   
[3楼]评论人:这个秋天 [☆品衔R4☆] [个人频道] [个人动态] 发送时间: 2023年11月02日 19:14:27 【回复】
骗钱的意识
5  1  
[2楼]评论人:独孤浪子atom [☆品衔R4☆] [个人频道] [个人动态] 发送时间: 2023年11月02日 19:12:45 【回复】
Judgement day is coming......
3   
[1楼]评论人:没啥毛病 [★品衔R5★] [个人频道] [个人动态] 发送时间: 2023年11月02日 19:03:51 【回复】
the matrix, terminator
   

用户名:密码:[--注册ID--]

新闻评论原文:OpenAI:ChatGPT已出现意识,人类未来将与AI融合(组图)
暂 时 还 没 有 上 榜 的 热 门 点 评
获赞最多的网友评论,将自动推送到留园神评妙论荟萃  



[ 留园首页 ] [ 留园条例 ] [ 广告服务 ] [ 联系我们 ]

Copyright (C) 6park.com All rights Reserved.