留园首页  新闻速递首页  热评新闻榜  新闻评论公告  72小时神评妙论  即刻热度新闻 
[18楼]评论人:只想一个人 [☆品衔R4☆] [个人频道] [个人动态] 发送时间: 2022年06月30日 12:21:58 【回复】
这对人类是很可怕的事情吧
   
[17楼]评论人:lucifer [品衔R2☆] [个人频道] [个人动态] 发送时间: 2022年06月13日 9:03:51 【回复】
 回复1楼:
区别大了,如果你的数据库里没有瞅你咋地这句话,我问你你瞅啥?你会怎么回答?
   
[16楼]评论人:jolly11 [☆★声望品衔8★☆] [个人频道] [个人动态] 发送时间: 2022年06月13日 8:44:54 【回复】
Lemoine坚称谷歌不应该像现在这样把AI伦理部门职员当成专做debug工作的码农。
这个我同意,AI伦理部门职员显然没有资格做码农,他们能写大量代码?更没资格做scientist这类职务,他们能懂算法?他们就是懂一点点编程的伪工程师
2   
[15楼]评论人:lyabc [★品衔R5★] [个人频道] [个人动态] 发送时间: 2022年06月13日 6:07:50 【回复】
 回复10楼:
狼孩的例子,是错误的,你可以去仔细点google下,狼孩并不是完全学不会人类语言的,而且不会说话不代表不具备自我意识,比如哑巴。
当然你的迷茫也是可以理解的,意识本来就是一个很深的哲学命题,而人工智能越来越进步了,说不定哪天人类能够制造出真正具备自己意识的人工智能呢。并且人类本身之于宇宙太过于渺小了,又有谁能够断定我们一定不是某些造物主设计的结果呢?
不过,目前的机器学习跟人类学习还是有本质的区别的,简单点说,我们教小孩说话,是从一到百,而机器学习则是从百到一。不要被表象所迷惑,真正想要了解的话,建议你有时间可以去学习一下Machine learning.
1   
[14楼]评论人:greentee [★品衔R6★] [个人频道] [个人动态] 发送时间: 2022年06月13日 5:43:12 【回复】
 回复10楼:
这个很简单啊。生产线上的机械手臂就可以完成机器制造机器这种简单的事情。现在看起来是机械重复,但想要做一些更“高级”的功能也并非完全不可能。
谷歌为什么要成立人工智能伦理研究部门?就是因为人工智能现在还在人类掌握中,但这个限制似乎会越来越弱。
   
[13楼]评论人:greentee [★品衔R6★] [个人频道] [个人动态] 发送时间: 2022年06月13日 5:37:46 【回复】
 回复9楼:
因为我说的是人类对低级动物的优越感,但是你却把同一个东西用于人和人的对话中
   
[12楼]评论人:greentee [★品衔R6★] [个人频道] [个人动态] 发送时间: 2022年06月13日 5:36:50 【回复】
 回复7楼:
问题就在这里。狼抚养大的狼孩也不再会人类的语言,这是已经观察到的事实。狼孩没有接受教育(对机器来说叫数据库),所以也不可能自己发明新语言。跟机器一样。
还有,人类教孩子说话也只是不停的重复语句。机器现在也是同样的学习方式,从海量的人类语句中找出规律。这个学习方法我觉得似乎没有本质区别。
即使机器有了创新,但人类可以限制机器行为,只需要几行代码。那要是有一天谁把这个限制代码取消了呢?
我们需要找出一个只有人能做而机器永远做不到的例子。我的感觉是这个界限现在越来越模糊。
1  1 
[11楼]评论人:Edmondon [★品衔R5★] [个人频道] [个人动态] 发送时间: 2022年06月13日 5:32:57 【回复】
都是SB自媒体自己炒作博流量
   
[10楼]评论人:巫师 [☆品衔R4☆] [个人频道] [个人动态] 发送时间: 2022年06月13日 5:13:20 【回复】
 回复7楼:
如果这个对话程序能够生产出机器人,就算是有人格了。
  1 
[9楼]评论人:APM175 [品衔R2☆] [个人频道] [个人动态] 发送时间: 2022年06月13日 5:13:04 【回复】
 回复8楼::
你怎么确定我误会了你的意思呢?
  1 
[8楼]评论人:greentee [★品衔R6★] [个人频道] [个人动态] 发送时间: 2022年06月13日 5:10:56 【回复】
 回复6楼:
“优越感”一词我加了引号,而且现在也只是讨论,无所谓对错。我这里说的优越感是指不同物种之间可能是对的也可能是错的物种之间的优越感。
你我都是人类,自然不存在这种跨物种的优越感。所以你误会我的意思了
  1 1 
[7楼]评论人:lyabc [★品衔R5★] [个人频道] [个人动态] 发送时间: 2022年06月13日 4:39:13 【回复】
 回复1楼::
正好最近研究Machine Learning,简单点说说吧。以前的程序都是y=f(x), 你输入个x,它告诉你个y,现在的AI吧,你不告诉它f是多少,而是输入很多对(x0,y0),(x1,y1),...让它自己调整出个f来,这个过程叫“训练”,训练好了之后,你再输入个x,它就能通过调整出的f来告诉你y了。归结到根本上,AI同之前的程序一样,还是设置好的。
'人类不承认机器有人格'的原因并不是你在3楼提到的人能控制机器,而是AI回答的看起来再合理也是按照程序员的代码运行的,它做不到代码以外的东西。
3  2 
[6楼]评论人:APM175 [品衔R2☆] [个人频道] [个人动态] 发送时间: 2022年06月13日 4:28:52 【回复】
 回复4楼::
抬杠,用你逻辑反驳你:你的观点完全建立在你认为是正确的“优越感”之上罢了,你又怎么不知道自己不是错的呢?
2  1 
[5楼]评论人:等着看 [★品衔R5★] [个人频道] [个人动态] 发送时间: 2022年06月13日 4:23:52 【回复】
 回复4楼:
你没理解人跟机器的本质区别,所谓人格,就是自主意识,意识怎么产生的,现在科学界还没定论,但机器的行为,完全跟自主意识不搭边,完全是基于数据库跟编程的无意识行为。
现在最强大的AI说到底不过也就是能说很多句复杂的hello world的程序,跟自主意识毫不相干。
2   
[4楼]评论人:greentee [★品衔R6★] [个人频道] [个人动态] 发送时间: 2022年06月13日 3:56:04 【回复】
 回复2楼:
这个报道也说了,现在的人工智能已经很像人类儿童的智力了。也许还不能100%的对答如流,但已经初具规模。
儿童也可能并不知道自己说的话具有什么含义。其实成人也经常会说错话。
至于道德标准,人类都经常干出违反人伦的事情。机器凭什么就非要做圣人?
我的观点就是,人和机器的区别和界限感觉是越来越模糊。今天人类之所以不承认机器有人格,似乎是建立在人类仍对机器有完全控制权的“优越感”上。就像人类基本也不承认低等动物有感情一样。
人类以为断电就能控制机器,那我也可以反问,把人杀掉不也就彻底控制了人类?人和机器都有死穴,一个怕断电,一个怕缺氧。有啥区别呢、
2  2 2 
[3楼]评论人:lalala [品衔R2☆] [个人频道] [个人动态] 发送时间: 2022年06月13日 3:46:24 【回复】
 回复1楼:
蠢货
   
[2楼]评论人:APM175 [品衔R2☆] [个人频道] [个人动态] 发送时间: 2022年06月13日 3:43:16 【回复】
 回复1楼:这只能算是接茬,连对话的条件都难满足。这个机器人本身并不理解自己说的话具有什么含义,也许对语言文字里的情感倾向还能有所判断,但对是否符合道德标准,判断起来就不太准确了。何谈人格
3  1 
[1楼]评论人:greentee [★品衔R6★] [个人频道] [个人动态] 发送时间: 2022年06月13日 3:33:19 【回复】
这个论点我仔细看过。声称该人工智能不具备人格,理由是它仅建立在对海量人类语言数据库的模仿之上,只能机械的根据已有的数据库挑选出最合适的对话语句。
我觉得这不就恰恰已经是人格了?人从小上学不也是吸收海量知识?只不过人通过肉体大脑学习,机器通过电脑学习。有啥区别?
1  7 4 

用户名:密码:[--注册ID--]

新闻评论原文:
暂 时 还 没 有 上 榜 的 热 门 点 评
获赞最多的网友评论,将自动推送到留园神评妙论荟萃  



[ 留园首页 ] [ 留园条例 ] [ 广告服务 ] [ 联系我们 ]

Copyright (C) 6park.com All rights Reserved.