巴蜀星波 发表于 2024-12-19 18:22:30

就AI现阶段而言,先做好描述世界,然后再认识、理解比较合理

关于逻辑、分类等问题放后面谈。
先说几个基本问题。
1,AI是人创建的。
很多人总说当前模型或程序或方法的局限性,这个局限性是时代局限性,是创立之初的局限性。很多人给AI灌输意识、思想、图像、声音等信息,形成了一个人群与AI片段的多点格局:P1 -> AI1,P2 -> AI2,P3 -> AI3,...
初期,人工智能作为人的延伸具有功能性,但反过来看,人其实也是AI片段的助手和传感器,也是对的。
2,整个人工智能世界是由AI片段组成的。
从进化的观点看,AI体系肯定是分布式系统,有共性与个性、矛盾对立统一等哲学特点,只有这样才能不断进化,把未知变为已知,拓展自己的世界。
既然是分布式,个体之间肯定有通信,通信要讲信息对齐、信息压缩、信息索引、信息检验、描述点收敛等问题。
既然是分布式,就存在知识整合问题。
这里延伸出来几个技术:AI片段如何设计、如何通信、如何相互引用与更新、如何整合、协调矛盾、如何检验、信息如何压缩、索引与引用等。
整个人工智能系统有一个十分繁重的任务,就是AI片段的整合。细节问题就是以上几个关键技术。
3,AI的发展应该有三大阶段。
(1)起初人工智能体系通过人获取信息,通过人的知识和逻辑来整理信息,唯一的延伸工具是人,认识世界的主要对齐标准是人,权威在于人。
(2)人工智能需要突破,必然需要人为人工智能设计另外的延伸工具,这时候人工智能可以通过另外的渠道获取世界知识,这个时候还需要把获取的知识与人来对标,用来检验别的延伸工具的真实性和有效性。
(3)人工智能一旦拥有多个延伸工具,从多个渠道获取知识和自我验证,就能实现自我改进,形成独特的知识体系(看待事物之间的关系),这是高级形态。
存在的目的依然是矛盾现象的对立与统一。
4,人工智能系统初期与人对标的一些问题。
(1)分类问题
分类主要是为了压缩对话通信量,这很明然,让你说出分类词的时候,不需要具体描述这个(或这些)物件的本身;其次是为了按照一致的索引查找条目,对话双方查找方法是一样的,得出的条目和含义就是一致的。相反,当别人不知道这个分类规定时,就很难沟通。
(2)逻辑问题
逻辑、定理,是为了查找关系与关系跳跃。
关系是索引的一个好的例子。
关系是客观存在的,通过分析关系和使用关系,可以通过改变关系项来间接改变目标项。
(3)人工智能的基本构成
依然是和人群相似:信息处理+执行部件+传感器。这三个部件,缺一个,否则不能形成知识反馈闭环。其高级形态肯定在感觉上是超越人类的。

√佐手,甜蜜 发表于 2024-12-19 18:23:24

对于世界的认识,由浅入深的描述的话,是否可以分为:
1,杂乱无章的世界,在建立之初,可以加入任何可以描述的实物
2,线索联系的世界,慢慢梳理很多实物之间的联系
3,规律的世界,实物之间可以转化,转化的条件、时机、比例、公式可以探索
4,变化的世界,世界处在什么的状态,如何认识和描述世界自身,探索世界的边界
5,可以改造的世界,通过人的主观能动性、规律改造世界,让世界发生有目的性的变化。
这个世界有几个技术难点:对不同的对话体之间存在不同的边界墙和约定术语,对话体之间如何沟通,接口、知识同步、通信、保密,已知和未知之间的也存在边界,怎么驱动新认知,环境如何感知,知识如何闭环验证,主要矛盾和次要矛盾如何制约与调和。

夏树繁花 发表于 2024-12-19 18:24:22

ai发展进度还是比较缓慢,知识产权约束是一个大麻烦,封锁与开放始终是一个大矛盾,经济利益纠纷严重、社会层次尚不高。如何有效处理这个矛盾,我认为要促进社会快速进入知识时代。
在知识时代,大家都把经验分享出来,对于程序化的东西大家都容易得到,知识贡献者可以获得别人的大量劳务服务或者健康服务,知识体验变得十分活跃。知识、途径和方法的贡献者、体验者、bug修复和改进者都很无私。
在这种条件下,试验室、研究所、高校、政府,都会参与规则制定,互相信任,把最前沿的研究(秘密数据)分享出来。有规则就有程序,有规则就有途径,很多问题就容易解决。那么机器和人之间的对话、协同就会十分简单,这就可以成为ai的雏形。

汐℡ 发表于 2024-12-19 18:24:36

描述世界说的是知识图谱吧?我有个问题,成功描述世界了,那需要应用的时候,又要重新根据需要来提取知识,这样前面说的描述世界只不过是简化了这个过程而已。

森树白云 发表于 2024-12-19 18:24:41

高层次的AI片段应该好整合吧。最底层的AI片段不好整合啦。人在收集外部与内在信息的过程,基本上可以编写成程序。
外部景物像素映射到视网膜上时,大脑中枢是分几步将像素分类,分类后得到一个一个清晰目标。AI要象大脑一样先做好最底层的事情,才能进行高级层次的AI片段整合。
大脑是如何处理视网膜上的像素信息,请吧里大神科普一下吖。

两个人才叫情侣 发表于 2024-12-19 18:25:24

关于ai的自我意识,我想拿人眼举例来说明:意识不是天生的,意识就是多个传感器的深度融合,融合就是熟练的闭环、紧密信任。
眼睛观察物体,定位精度是多少?
1,如果没有经验模型,双目定位后构建3维空间,需要很多观测点和观测数据,而且还得考虑准确性问题;
2,从小到大,人的双眼之间的距离和眼球焦距发生变化、眼睛老化,促使眼睛不断自我调整和校准,让我们得到认为准确的位置、颜色等信息;
3,眼睛看出来的距离、材质,需要利用步测或触摸,才能进一步肯定眼睛观察的数据。这样以来,腿(手)、眼睛和大脑,构成了闭环。
从这个例子中不难看出,传感器若需具有自我意识,不是天生的,而是观察、机动、校准、沟通、经验相结合的产物。
然而,目前为止,多个传感器深度融合、自我诊断和调校一直很困难。

书生温文 发表于 2024-12-19 18:25:30

为什么要把ai想的无所不能呢,任何生物的的本能是生存,不想消失。以生存为条件,五感的作用不就是来辅助帮助我们有更好的生存条件吗,能量充足划生线,能量消失划死线,能量不足就以五感来判断,用行动来获取能量。我们不是ai,附加再多的功能它不能判断对自己生存条件的恶劣或更优渥,它永远都只能是个工具,工具是没有自我存在意义的。本人小白有感而发

以往过眼云烟 发表于 2024-12-19 18:25:35

技术难点的确大啊。
相较于人类现实,编程语言有几个大的弊端。
一是变量,变量有作用域,内部可访问外部,外部不可访问内部,这与现实不符。
二是属性,属性指出了物体的特征,但是这个特征无须测试,也没有测定的方法,与现实不符。
三是属性的作用域,属性不能全局通用,不能反向查找,在现实世界里,相同属性的物体是可以归类的。
四是子函数,子函数计算过程固定,不能够调整,这与现实不符,现实中,很多计算过程是可以优化的。
五是函数参数,现实中,对于缺项的处理是很灵活的,有的是等待资源,有的是绕道行进,有的是自行寻找。
六是操作系统和命令,可用性和智能化还很低,不能询问使用方法,不能给出使用例子,不能相互学习和借鉴,这与现实不符。

东风谷飞星 发表于 2024-12-19 18:26:30

1,特征的数量、量词、测定方法是三位一体的,量词指明了特征的一致性,虽然“特征”的名称不一致,但是描述特征所使用的量词、测定方法是否一致,可提示“特征词”是否可以合并。
2,当个人与ai沟通时,互相协商词语、动词、知识结构等内容的合并与规约,ai自己有自己的逻辑准则(自我验证)的知识结构,同时仿真(存储)个人(对话对象)的知识结构,二者进行协商,各自进化。
3,程序入口都有引导,便于程序功能的不间断(升级或进化)运行。

林间有新绿 发表于 2024-12-19 18:27:16

前几天看到李飞飞团队提出了社会化ai,在斯坦福,发表在美国科学院院刊 PNAS上。把社会化的思想技术化,看来她又向前迈进了一大步。
页: [1] 2
查看完整版本: 就AI现阶段而言,先做好描述世界,然后再认识、理解比较合理