̫�����ţ�����ģʽ������̫�����Ǿ���������ů�����⣬���������������ˣ��ǶԿյ��������ȹ����İ��������ϵķ����Ǽ��ȣ���һ���¶Ⱦ�����һ�ȣ����µķ��������෴�� Show ���յ�ң������ѩ�����ţ�����ģʽ��ѩ�������Ŷ��е㶬��ĸо������Զ�������������İ��������µķ��Ű�һ���¶Ⱦͽ���һ�ȣ����ϵķ��������෴�� ��η��ţ���˪ģʽ����ѩ�������µ�ģʽ�ȽϽӽ��������ڳ�˪ģʽ�µĿյ��ڻ������Ǵ��ڵ�����ת��״̬������ʱ��Ҳ�Dz������ġ� ���յ�ң��������һ�����������ֵķ��ţ�ͨ��ģʽ����������������ֻ�����ڻ��ķ��Ȼ��ڹ�������ʱ��Ϊ��ͨ�绻���� ����ǣ�˯��ģʽ����������һ��ʱ�䣬�����ʱ�����յ������Զ��ػ����ĸ���ͷ����һ������ķ��ţ�����ѡ�� ��ʽ�յ���飺 Ҫ���ڴ�Χ�ռ�����£�������������ҵ����������ʽ�յ�����ʡ� ��ѡ��ʱӦע���Ƿ��и����ӷ����ܣ���Ϊ�������¿�������֤���������е�����ʽ�յ�����ģʽ�������ܣ�����״���ɻ������գ�����ҵ�����������С���ļ�ͥ��Ƚ����ã��ɱ��ⲻ��Ҫ���� MODE��ģʽ��ͼ��Ϊ���������λ�Ӣ�ģ�ң����������ģʽ���Զ�-����-��ʪ-�ͷ�-���ȡ�����Ӧ��ͼ��ֱ��ǡ�������-ѩ��-ˮ��-����-̫����������ң�������Զ�ģʽ���������������ĸA�� EA Heating���縨���ȣ�ͼ��Ϊ����˿��Ӣ�ģ��յ������������ޣ�����ѹ�����ȱ������ٶ�ԶԶ���������Ի����ڻ�����һ�������˿���Ի�ø���������ٶȺ��õ�����Ч���� �������յ�ң�����������η��ţ��Զ�ģʽ��������������ʹ����ſյ������и��������¶ȵĸߵ��Զ���������ȣ�ʮ�ַ��㡣̫�����ţ�����ģʽ������̫�����Ǿ���������ů�����⣬���������������ˣ��ǶԿյ��������ȹ����İ��������ϵķ����Ǽ��ȣ���һ���¶Ⱦ�����һ�ȣ����µķ��������෴�� �������յ�ң����ʹ�á�ѩ���Լ���� �������յ�ң������ѩ�����ţ�����ģʽ��ѩ�������Ŷ��е㶬��ĸо������Զ�������������İ��������µķ��Ű�һ���¶Ⱦͽ���һ�ȣ����ϵķ��������෴����η��ţ���˪ģʽ����ѩ�������µ�ģʽ�ȽϽӽ��������ڳ�˪ģʽ�µĿյ��ڻ������Ǵ��ڵ�����ת��״̬������ʱ��Ҳ�Dz������ġ� �������յ�ң����ʹ�á�����ֺ������ �������յ�ң��������һ�����������ֵķ��ţ�ͨ��ģʽ����������������ֻ�����ڻ��ķ��Ȼ��ڹ�������ʱ��Ϊ��ͨ�绻��������ǣ�˯��ģʽ����������һ��ʱ�䣬�����ʱ�����յ������Զ��ػ����ĸ���ͷ����һ������ķ��ţ�����ѡ�� �������յ�ң����������ȷ�����յ�ң������ס ����������ô��ң�����ϵİ�������û�з�Ӧ������£�һ����������Ǵ��յ�ң�������û�磬����һ����������Ǵ��յ�ң��������ס��������Ҫ�ų����յ�ң�������û��Ŀ��ܣ������Ҫ��ϸ�Ŀ������յ�ң������ʾ������û��һ��С����ͼ�꣬���dz��������ͼ��˵���Ǵ��յ�ң��������ס��������û�е硣������ô�����յ�ң�����ϵİ�������û�з�Ӧ������£�һ�����������ң�������û�磬����һ�����������ң��������ס��������Ҫ�ų�ң�������û��Ŀ��ܣ������Ҫ��ϸ�Ŀ���ң������ʾ������û��һ��С����ͼ�꣬���dz��������ͼ��˵����ң��������ס��������û�е硣 �������յ�ң�������������յ�ң������ס������� �������յ�ң������ظ�λ�ã�(��Щ�ͺ��ڷ��ǹ��ܼ�λ��)����д�ſ���/������С�ף���С��ǩ����ȥ���ɣ�ÿ��һ�Σ����յ�ң������Һ����ʾ���������ͷ��ͼƬ��ʾ�����յ�ң�����ı��涼��д����ν����IJ�����ʾ�����������ͬʱ��סң�������¶ȡ�+-������2����ɿ��־��ǿ��������������ˡ����ַ���Ҳ����Ϊ�İ취֮һ��ȡ�±���ĵ�أ�ʮ���Ӻ���װ�ϱ�ָ���ԭ���������ˡ��������յ�ң�������ܼ����ǣ��ҵ�һ��С��д�š���λ���ļ��ǣ�����ǩ���밴һ�¼��ɡ�ͬʱ����ң�����ϵ�+��-�������ǽ��������µ�أ��������ٰ�װ��ȥ��ң�����ͻ�ָ�������ģʽ�� ����ۺ����ѣ�����һ���������յ����ϵļ۸��Ƕ��٣����Ҫ����ʵ����������DZ�Ƶ�յ����Ƕ�Ƶ�յ�����������յ����ǹ�ʽ��ʽ�յ�����Ϊ��ɿյ������䡢�յ���ʾij�ֹ��ϴ����ԭ���кܶࡣ���磬ѹ�������ϣ���ͨ�����ϣ�������ϣ���·���ϵȶ��ᵼ�¿յ������������ʾij�ֹ��ϴ��롣�յ�ά�ļ۸��Լ150Ԫ���ҡ����˼۸�����ο��� �������յ�ȫ���ۺ����绰��4OO8-030-689���ṩ���յ�ά�����յ���װ���յ������ӷ����ۺ�ά��ȫ�װ�װ����һվʽ����ȫ��ͳһ�������ߡ��ڴ����ԤԼ���������Ϻ������ݡ����ڡ���ɳ�����¡��人������Ͼ������졢���������ݡ����ݡ�֣�ݡ��������ɶ����麣��ʯ��ׯ���������������������Ϸʡ��ϲ������ݡ����ŵȳ��о����ۺ�ά�����㡣������߱���ƽ̨��http://www.gz-dajin.com/baoxiu/ 大金空调遥控器是控制大金空调的唯一方法。那如果要使用大金空调遥控器的话,怎么控制大金空调遥控器才能够带来一个好的效果呢?在这之前我们需要先了解空调遥控器的图标,这样才能更好的调节空调,接下来大金空调维修网小编来给大家分析一下大金空调遥控器标志图解说明。 一、大金空调遥控器标志图解说明 1、雪花图标 图标图标代表制冷模式。制冷模式通常是在夏季使用。它主要是把从房间里的热量转移到室外。这样,房间内的温度就能降低了。通常,夏季制冷温度设置为26℃至28℃最为适宜。此外,空调只有在制冷模式下进行时才能收氟。 2、太阳图标 图标图标代表制热模式。冬季天气寒冷时我们一般都会选择制热模式。在制热时温度通常在20到22度之间即可,不需要设置的太高。 3、风扇图标 该图标表示循环送风模式。此模式可以每天打开一次或两次。它的主要功能是在房间内循环送风并进行送风。这时房间里的脏空气将被抽出,新鲜空气就会被送入,就像打开窗户的通风一样。4、水滴模式 水滴样式的图标指的是除湿模式。此模式主要用于夏季湿度高的环境。当打开空气除湿功能时,空调将降低室内温度,并对室内水分析出并凝结,从而实现除湿的效果。需要注意的是,除湿时室温会降低,不要感冒了。 人工智能(英語:artificial intelligence,缩写为AI)亦稱智械、機器智能,指由人製造出來的機器所表現出來的智慧。通常人工智能是指通过普通電腦程式來呈現人類智能的技術。該詞也指出研究這樣的智能系統是否能夠實現,以及如何實現。同时,通過醫學、神經科學、機器人學及統計學等的進步,常態預測則認為人類的很多職業也逐漸被其取代。[1][2] 人工智能於一般教材中的定义领域是“智慧主体(intelligent agent)的研究与设计”[3],智慧主体指一个可以观察周遭环境并作出行动以达致目标的系统[4]。约翰·麦卡锡于1955年的定义是[5]「制造智能机器的科学与工程」[6]。安德烈亚斯·卡普兰(Andreas Kaplan)和迈克尔·海恩莱因(Michael Haenlein)将人工智能定义为“系统正确解释外部数据,从这些数据中学习,并利用这些知识通过灵活适应实现特定目标和任务的能力”。[7] 人工智能可以定義為模仿人類與人類思維相關的認知功能的機器或計算機,如學習和解決問題。人工智能是計算機科學的一個分支,它感知其環境並採取行動,最大限度地提高其成功機會。此外,人工智能能夠從過去的經驗中學習,做出合理的決策,並快速回應。因此,人工智能研究人員的科學目標是通過構建具有象徵意義的推理或推理的計算機程式來理解智慧。人工智能的四個主要組成部分是:
人工智能的研究是高度技术性和专业的,各分支领域都是深入且各不相通的,因而涉及範圍極廣[9]。人工智能的研究可以分为几个技术问题。其分支领域主要集中在解决具体问题,其中之一是,如何使用各种不同的工具完成特定的应用程序。 AI的核心问题包括建構能夠跟人類似甚至超卓的推理、知识、规划、学习、交流、感知、移物、使用工具和操控机械的能力等[10]。人工智能目前仍然是该领域的长远目标[11]。目前弱人工智慧已經有初步成果,甚至在一些影像辨識、語言分析、棋類遊戲等等單方面的能力達到了超越人類的水平,而且人工智慧的通用性代表著,能解決上述的問題的是一樣的AI程式,無須重新開發算法就可以直接使用現有的AI完成任務,與人類的處理能力相同,但達到具備思考能力的統合強人工智慧還需要時間研究,比较流行的方法包括统计方法,计算智能和传统意义的AI。目前有大量的工具应用了人工智能,其中包括搜索和数学优化、逻辑推演。而基於仿生學、認知心理學,以及基于概率论和经济学的演算法等等也在逐步探索當中。 人工智能的定義可以分為兩部分,即「人工」和「智能」。「人工」即由人设计,为人创造、制造。 關於什麼是「智能」,较有争议性。這涉及到其它諸如意識、自我、心靈,包括無意識的精神等等問題。人唯一瞭解的智能是人本身的智能,這是普遍認同的觀點。但是我們對我們自身智能的理解都非常有限,對構成人的智能必要元素的瞭解也很有限,所以就很難定義什麼是「人工」製造的「智能」。因此人工智能的研究往往涉及對人智能本身的研究。其它關於動物或其它人造系統的智能也普遍被認為是人工智能相關的研究課題。 人工智慧目前在電腦領域內,得到了愈加廣泛的发挥。並在機器人、經濟政治決策、控制系統、仿真系統中得到應用。 發展史[编辑]研究課題[编辑]目前人工智慧的研究方向已經被分成幾個子領域,研究人員希望一個人工智慧系統應該具有某些特定能力,以下將這些能力列出並說明。[10] 演绎、推理和解决问题[编辑]早期的人工智慧研究人员直接模仿人类进行逐步的推理,就像是玩棋盘游戏或进行逻辑推理时人类的思考模式。[12]到了1980和1990年代,利用概率和经济学上的概念,人工智慧研究还发展了非常成功的方法处理不确定或不完整的资讯。[13] 对于困难的问题,有可能需要大量的运算资源,也就是发生了「可能组合爆增」:当问题超过一定的规模时,电脑会需要天文数量级的存储器或是运算时间。寻找更有效的演算法是优先的人工智慧研究项目。[14] 人类解决问题的模式通常是用最快捷、直观的判断,而不是有意识的、一步一步的推导,早期人工智慧研究通常使用逐步推导的方式。[15]人工智慧研究已经于这种「次表征性的」解决问题方法取得进展:实体化Agent研究强调感知运动的重要性。神经网络研究试图以模拟人类和动物的大脑结构重现这种技能。 知識表示法[编辑]本體論將知識表示為一個領域內的一組概念以及這些概念之間的關係。 知识表示是人工智能领域的核心研究问题之一,它的目标是让机器存储相应的知识,并且能够按照某种规则推理演绎得到新的知识。有许多需要解决的问题需要大量的对世界的知识,这些知识包括事先存储的先验知识和通过智能推理得到的知识。事先存储的先验知识指:人类通过某种方式告诉给机器的知识。通过智能推理得到的知识指:结合先验知识和某种特定的推理规则(逻辑推理)得到的知识。首先,先验知识可以指描述目标,特征,种类及物件之间的关系的知识, 也可以描述事件,时间,状态,原因和结果, 以及任何知识你想要机器存储的。比如:今天没有太阳,没有太阳就是阴天。那么以命题逻辑语言,这些知识可以被表示为:今天-->没有太阳, 没有太阳-->阴天。这些知识是先验知识,那么通过推理可以得到新知识:今天-->阴天。由此例子可以看出,先验知识的正确性非常重要,这个例子中没有太阳就是阴天,这个命题是不严谨的、比较笼统的,因为没有太阳可能是下雨,也可能下雪。另外如果人工智慧能看出太陽,除了該如何判斷的這件問題,在這個前提之下,應該也能判斷出陰天與晴天的差異。逻辑命题表示在知识表示中非常重要,逻辑推理规则是目前主要推理规则。可以在机器中用逻辑符号定义每一个逻辑命题,然后再让机器存储相应的逻辑推理规则,那么自然而然机器便可进行推理。目前知识表达有许多困境尚无法解决,比如:建立一个完备的知识库几乎不可能,所以知识库的资源受到限制;先验知识的正确性需要进行检验,而且先验知识有时候不一定是只有对或者错两种选择。 智能Agent必须能够制定目标和实现这些目标。[16]他们需要一种方法来建立一个可预测的世界模型(将整个世界状态用数学模型表现出来,并能预测它们的行为将如何改变这个世界),这样就可以选择功效最大的行为。[17] 在传统的规划问题中,智能Agent被假定它是世界中唯一具有影响力的,所以它要做出什么行为是已经确定的。[18]但是,如果事实并非如此,它必须定期检查世界模型的状态是否和自己的预测相符合。如果不符合,它必须改变它的计划。因此智能代理必须具有在不确定结果的状态下推理的能力。[19] 在多Agent中,多个Agent规划以合作和竞争的方式去完成一定的目标,使用演化演算法和群体智慧可以达成一个整体的突现行为目标。[20] 机器学习的主要目的是为了让机器从使用者和输入数据等处获得知识,从而让机器自动地去判断和输出相应的结果。这一方法可以帮助解决更多问题、减少错误,提高解决问题的效率。对于人工智能来说,机器学习从一开始就很重要。1956年,在最初的达特茅斯夏季会议上,雷蒙德·索洛莫诺夫[來源請求]写了一篇关于不监视的概率性机器学习:一个归纳推理的机器。 机器学习的方法各种各样,主要分为监督学习和非监督学习两大类。监督学习指事先给定机器一些训练样本并且告诉样本的类别,然后根据这些样本的类别进行训练,提取出这些样本的共同属性或者训练一个分类器,等新来一个样本,则通过训练得到的共同属性或者分类器进行判断该样本的类别。监督学习根据输出结果的离散性和连续性,分为分类和回归两类。非监督学习是不给定训练样本,直接给定一些样本和一些规则,让机器自动根据一些规则进行分类。无论哪种学习方法都会进行误差分析,从而知道所提的方法在理论上是否误差有上限。 自然語言處理[编辑]自然語言處理探討如何處理及運用自然語言,自然語言認知則是指讓電腦「懂」人類的語言。自然語言生成系統把計算機數據轉化為自然語言。自然語言理解系統把自然語言轉化為計算機程序更易于處理的形式。 運動和控制[编辑]機器感知[21]是指能夠使用感測器所輸入的資料(如照相機、麥克風、聲納以及其他的特殊感測器)然後推斷世界的狀態。電腦視覺[22]能夠分析影像輸入。另外還有語音識別[23]、人臉辨識和物體辨識。[24] 情感和社交技能對於一個智能agent是很重要的。首先,通过了解他們的動機和情感狀態,代理人能夠預測別人的行動(這涉及要素 博弈論、決策理論以及能夠塑造人的情感和情緒感知能力檢測)。此外,為了良好的人機互動,智慧代理人也需要表現出情緒來。至少它必須出現禮貌地和人類打交道。至少,它本身應該有正常的情緒。 創造力[编辑]一個人工智慧的子領域,代表了理論(從哲學和心理學的角度)和實際(通過特定的實現產生的系統的輸出是可以考慮的創意,或系統識別和評估創造力)所定義的創造力。相關領域的研究包括了人工直覺和人工想像。 倫理管理[编辑]史蒂芬·霍金、比爾蓋茲、馬斯克、 Jaan Tallinn 以及 Nick Bostrom 等人都對於人工智慧技術的未來公開表示憂心[26],人工智慧若在許多方面超越人類智慧水平的智能、不斷更新、自我提升,進而取得控制管理權,人類是否有足夠的能力及時停止人工智慧領域的「軍備競賽」,能否保有最高掌控權,現有事實是:機器常失控導致人員傷亡,這樣的情況是否會更加擴大規模出現,歷史顯然無法給出可靠的樂觀答案。特斯拉電動車馬斯克(Elon Musk)在麻省理工學院(MIT)航空航天部門百年紀念研討會上稱人工智能是「召喚惡魔」行為,英國發明家Clive Sinclair認為一旦開始製造抵抗人類和超越人類的智能機器,人類可能很難生存,蓋茲同意馬斯克和其它人所言,且不知道為何有些人不擔憂這個問題。[27] DeepMind的人工智慧(AI)系統在2016年「AlphaGo」對戰南韓棋王李世乭獲勝,開發商表示在內部設立倫理委員會,針對人工智慧的應用制定政策,防範人工智慧淪為犯罪開發者。[28] 科技進步,人工智慧科技產生「自主武器」軍備競賽已悄悄展開,英國、以色列與挪威,都已部署自主飛彈與無人操控的無人機,具「射後不理」(fire-and-forget)能力的飛彈,多枚飛彈還可互相溝通,分享找到攻擊目標。這些武器還未被大量投入,但很快就會出現在戰場上,且並非使用人類所設計的程序,而是完全利用機器自行決策。 霍金等人在英國獨立報發表文章警告未來人工智慧可能會比人類金融市場、科學家、人類領袖更能操縱人心、甚至研發出人們無法理解的武器。專家恐發展到無法控制的局面,援引聯合國禁止研發某些特定武器的「特定常規武器公約」加以限制。[29]新南威爾斯大學人工智慧的沃爾什(Toby Walsh)教授認為這是一種欺騙,因為機器無區別戰敵和平民的技術。[30] 經濟衝擊[编辑]據CNN財經網數字媒體未來學家兼Webbmedia集團創始人艾米·韋伯(Amy Webb);美國在線[31]...等紛紛預測一些即將被機器人取代的職業,日本野村總合研究所也與英國牛津大學的研究學者共同調查指出,10至20年後,日本有49%的職業(235種職業)可能會被機械和人工智慧取代而消失,直接影響約達2500萬人,[32]例如:超市店員、一般事務員、計程車司機、收費站運營商和收銀員、市場營銷人員、客服人員、製造業工人、金融中間人和分析師、新聞記者、電話公司職員、麻醉師、士兵和保安、律師、醫生、軟體開發者和操盤手、股票交易員等等高薪酬的腦力職業將最先受到衝擊[33]。 2017年6月份马云在美國底特律舉行「鏈結世界」(Gateway 17)產業大會,會上提出人工智慧可能導致第三次世界大戰,因為前兩次產業革命都導致兩次大戰,戰爭原因並非這些創新發明本身,而是發明對社會上許多人的生活方式衝擊處理不當,新科技在社會上產生新工作也取代舊工作,產生了新的輸家和贏家,若是輸家的人數太多將造成一股社會不穩的能量而這股能量被有心人利用可能導致各種事件。他認為各國應該強制訂定規定AI機器只能用於人類不能做的工作,避免短時間大量人類被取代的失業大潮,但馬雲沒有提出這種世界性規定將如何實現並確保遵守的細節方案。[34] AI對人類的威脅[编辑]此議題目前分成兩個學派: 悲觀學派[编辑]此學派的代表是天文物理學家史蒂芬·霍金,以及特斯拉執行長伊隆·馬斯克。霍金認為AI對人類將來有很大的威脅,主要有以下理由:
樂觀學派[编辑]主要是Google、Facebook等AI的主要技術發展者,他們對AI持樂觀看法的理由:
AI與管理[编辑]AI逐漸普及後,將會在企業管理中扮演很重要的角色,而人類的管理者應如何適度的調整自己的工作職能,有以下幾點建議:
[36] 強人工智能和弱人工智能[编辑]人工智能的一個比較流行的定義,也是該領域較早的定義,是由當時麻省理工學院的約翰·麥卡錫在1956年的達特矛斯會議上提出的:人工智能就是要讓機器的行為看起來就像是人所表現出的智能行為一樣。但是這個定義似乎忽略了強人工智能的可能性(見下)。另一個定義指人工智能是人造機器所表現出來的智能。總體來講,目前對人工智能的定義大多可劃分為四類,即機器「像人一樣思考」、「像人一樣行動」、「理性地思考」和「理性地行動」。這裡「行動」應廣義地理解為採取行動,或制定行動的決策,而不是肢體動作。 強人工智能[编辑]強人工智能觀點認為「有可能」製造出「真正」能推理和解決問題的智能機器,並且,這樣的機器將被認為是具有知覺、有自我意識的。強人工智能可以有兩類:
弱人工智能[编辑]弱人工智能觀點認為「不可能」製造出能「真正」地推理和解決問題的智能機器,這些機器只不過「看起來」像是智能的,但是並不真正擁有智能,也不會有自主意識。 弱人工智能是對比強人工智能才出現的,因為人工智能的研究一度處於停滯不前的狀態下,直到類神經網路有了強大的運算能力加以模擬後,才開始改變並大幅超前。但人工智能研究者不一定同意弱人工智能,也不一定在乎或者了解強人工智能和弱人工智能的內容與差別,對定義爭論不休。 就當下的人工智能研究領域來看,研究者已大量造出「看起來」像是智能的機器,取得相當豐碩的理論上和實質上的成果,如2009年康乃爾大學教授Hod Lipson 和其博士研究生Michael Schmidt 研發出的 Eureqa電腦程式,只要給予一些資料,這電腦程式自己只用幾十個小時計算就推論出牛頓花費多年研究才發現的牛頓力學公式,等於只用幾十個小時就自己重新發現牛頓力學公式,這電腦程式也能用來研究很多其他領域的科學問題上。這些所謂的弱人工智慧在神經網路發展下已經有巨大進步,但對於要如何整合成強人工智慧,現在還沒有明確定論。 對強人工智能的哲學爭論[编辑]「強人工智能」一詞最初是約翰·羅傑斯·希爾勒針對電腦和其它信息處理機器創造的,其定義為: 「強人工智能觀點認為計算機不僅是用來研究人的思維的一種工具;相反,只要运行適當的程序,計算機本身就是有思維的。」(J Searle in Minds Brains and Programs. The Behavioral and Brain Sciences, vol. 3, 1980) 關於強人工智能的爭論,不同於更廣義的一元論和二元論的爭論。其爭論要點是:如果一台機器的唯一工作原理就是轉換編碼數據,那麼這台機器是不是有思維的?希爾勒認為這是不可能的。他舉了個中文房間的例子來說明,如果機器僅僅是轉換數據,而數據本身是對某些事情的一種編碼表現,那麼在不理解這一編碼和這實際事情之間的對應關係的前提下,機器不可能對其處理的數據有任何理解。基於這一論點,希爾勒認為即使有機器通過了圖靈測試,也不一定說明機器就真的像人一樣有自我思維和自由意識。 需要指出的是,弱人工智能並非和強人工智能完全對立,也就是說,即使強人工智能是可能的,弱人工智能仍然是有意義的。至少,今日的計算機能做的事,像算術運算等,在一百多年前是被認為很需要智能的。並且,即使強人工智能被證明為可能的,也不代表強人工智能必定能被研製出來。 研究方法[编辑]目前没有统一的原理或范式指导人工智能研究。许多问题上研究者都存在争论。[37] 其中几个长久以来仍没有结论的问题是:是否应从心理或神经方面模拟人工智能?或者像鸟类生物学对于航空工程一样,人类生物学对于人工智能研究是没有关系的?[38]智能行为能否用简单的原则(如逻辑或优化)来描述?还是必须解决大量完全无关的问题?[39] 控制论与大脑模拟[编辑]20世纪40年代到50年代,许多研究者探索神经学、信息理论及控制论之间的联系。其中还造出一些使用电子网络构造的初步智能,如格雷·華特(W. Grey Walter)的烏龜(turtle)和約翰霍普金斯野獸。 这些研究者还经常在普林斯顿大学和英国的Ratio Club举行技术协会会议。[44]直到1960,大部分人已经放弃这个方法,尽管在80年代再次提出这些原理。 符号处理[编辑]当20世纪50年代,數位计算机研制成功,研究者开始探索人类智能是否能简化成符号处理。研究主要集中在卡内基梅隆大学,斯坦福大学和麻省理工學院,而各自有独立的研究风格。約翰·豪格兰德(John Haugeland)称这些方法为GOFAI(出色的老式人工智能)[45]。60年代,符号方法在小型证明程序上模拟高级思考有很大的成就。基于控制论或神经网络的方法则置于次要[46]。60-70年代的研究者确信符号方法最终可以成功创造强人工智能的机器,同时这也是他们的目标。
子符号方法[编辑]1980年代符号人工智能停滞不前,很多人认为符号系统永远不可能模仿人类所有的认知过程,特别是感知、机器人、机器学习和模式识别。很多研究者开始关注子符号方法解决特定的人工智能问题[40]。
统计学方法[编辑]1990年代,人工智能研究发展出复杂的数学工具来解决特定的分支问题。这些工具是真正的科学方法,即这些方法的结果是可测量的和可验证的,同时也是近期人工智能成功的原因。共用的数学语言也允许已有学科的合作(如数学,经济或运筹学)。Stuart J. Russell和Peter Norvig指出这些进步不亚于“革命”和“neats的成功”[58]。有人批评这些技术太专注于特定的问题,而没有考虑长远的强人工智能目标[59]。 集成方法[编辑]
基本應用[编辑]人工智慧基本的應用可分為四大部分: 感知能力(Perception)[编辑]指的是人類透過感官所收到環境的刺激,察覺訊息的能力,簡單的說就是人類五官的看、聽、說、讀、寫等能力,學習人類的感知能力是AI目前主要的焦點之一,包括:
認知能力(Cognition)[编辑]指的是人類透過學習、判斷、分析等等心理活動來瞭解訊息、獲取知識的過程與能力,對人類認知的模仿與學習也是目前AI第二個焦點領域,主要包括:
創造力(Creativity)[编辑]指的是人類產生新思想,新發現,新方法,新理論,新設計,創造新事物的能力,它是結合知識、智力、能力、個性及潛意識等各種因素優化而成,這個領域目前人類仍遙遙領先AI,但AI也試著急起直追,主要領域包括:AI作曲、AI作詩、AI小說、AI繪畫、AI設計等。 智慧(Wisdom)[编辑]指的是人類深刻瞭解人、事、物的真相,能探求真實真理、明辨是非,指導人類可以過著有意義生活的一種能力,這個領域牽涉人類自我意識、自我認知與價值觀,是目前AI尚未觸及的一部分,也是人類最難以模仿的一個領域。 [61] |