一、人工智能可不可能出现
你说“有自我意识”,这个属于人工智能中强人工智能学派的观点
暂无定论
但是,许多科学家都认为实现强人工智能的可能性还是比较大的。比如,史蒂芬霍金在《果壳中的宇宙》中的一章中,曾经提起过,他认为当电子大脑复杂程度等于或者大于人脑的复杂程度时,机器出现自我意识是很有可能的。而且,会比人类聪明(人类的大脑是使用化学信号传递信息的,而机器是电信号,接近光速,在大脑高度复杂的情况下,传递时间比人类要快的多)
当然,这只是现在的猜测。目前人工智能领域的研究还没有达到这个水平。
我本人也支持强人工智能理论。
二、强人工智能有生之年能出现吗
应该在最近的几十年内就可以出现,想一下,十年前你会知道有滑屏手机的流行吗?三十年前,你会想到信息技术革命的爆发吗?人工智能的进步看来指日可待啊。
三、检验机器人是否具有强人工智能的测试叫做什么测试啊
答案为:图灵测试。
这个测试是由一位叫阿兰·图灵的人提出的。假设有一个人、一个机器人和一个裁判,那么裁判在A房间里,一个人在B房间里,一个机器人在C房间里。裁判的A房间中有台电脑,连接着B房间和C房间两端,可以进行聊天。裁判轮流跟人和机器人聊天,若机器人可以愚弄裁判,那么它就是强人工智能!
求采纳,是手打出来的!
四、怎样确定一个系统具有人工智能?
人工智能分又很多学科,比如有模式识别。对于你说的某系统具有“智能性” 的判断标准,需要分不同的系统来说明。首先,人工智能又分“弱智能”和“强智能”,所谓的“强智能”,我个人觉得短期无法实现,因为“人工智能”讲究的意思是“像人一样具有人的各种能力”,比如图形图像识别、逻辑运算等。所以,低于不同功能的系统,我们大致可以按照“是不是具有人的‘能力’”来判断。
目前。我们见到的几乎都是“弱智能”,比如简单的“记忆、学习”能力、又比如百度《寻人(由中科院无偿提供)》,那个具有识别图像的能力。
所以,我们简单来说,判断一个系统是不是具有“人工智能”属性,只要根据不同的系统功能来分析,它有没有一些简单的“人类能力”即可。
对于我们社会生活所遇到的“智能”,那些只是厂家的一种营销手段,比如塞班手机系统,人称“智能手机系统”,又比如搜狗输入法,人称“智能输入法”。。。。。你懂了么?它绝对不会说“人工智能输入法”。。。。。。
至于你说的神经网络。。。不要听他们瞎扯,神经网络是人工智能用来研究逻辑、思考等功能的。更多的就不说了,大半夜的回答问题也不容易。
五、人类会因为发明了人工智能、核武器而后悔,一旦失控人类练怎么死的都不知道,这是真的吗?
这是一种假说而已。。。但是被广大的科幻作家和电影制片无限扩大了危害性和危险性而已。
首先人工智能是仿生学的高端产品,也是人类探寻生命奥秘中的一种副产品。至于人工智能会不会像小说和电影那样统治人类甚至毁灭人类,我也只能呵呵了。
按现在世界上对人工智能的分类,大体划分为两级:弱人工智能和强人工智能。但是现实中的科技只是完成了弱人工智能,对强人工智能的开发却一点线索都没有。
什么是弱人工智能,也就是我们现在老讲的阿尔法GO这等级的,包括GOOGLE、百度等搜索引擎程序,还有市面上各种自动化智能化机器人。。。之所以说他们是弱人工智能,是因为他们只能模拟人脑的部分功能,甚至比人脑部分功能的效率更加高。但是依然不能完全取代人脑。举个栗子,学习,一个刚满周岁的小孩可以通过学习,认识到爸爸妈妈,这弱人工智能也能辨认,但是区别在于,小孩知道哭喊可以让父母过来疼爱自己,但是弱人工智能不能做到看似简单逻辑推理。再举个栗子:三岁的小孩都知道积木只能从下往上盖,你让小孩从上往下搭积木,会被小孩笑话,但是弱人工智能只会按你的要求去做这不可能的任务,除非你在它的程序中添加有关地心引力的知识。小孩根本不懂神马是地心引力,但是会否决你那个愚蠢的命令!
这里解释一下神马叫强人工智能,其实就是电影小说里面的天网、黑客帝国里面的史密斯等等,几乎与人无异。其实科学界有一套成熟的检验强人工智能的体系,叫图灵测试,至今仍然没有一款人工智能软件能顺利通过。
再说核武器的事,其实这个东西,不管你发展不发展,这玩意都存在于自然界,并不会因为你没发现它就不存在,所以也谈不上后不后悔的问题。。对地球影响最大的反应堆正是我们人类乃至整个地球圈乃以生存的太阳,难道你想毁了它?再说了核武器其实就是恒星的力量,人类只要探索外太空,终究都是要接触的,这无法避免。关键是控制好,别让它威胁到自身安全就是了。