对于ai来说, 让结果从“不准”到“准”, 不是十分容易,与传统的“找bug”“修bug”流程全然不同。
目前, 在对ai的争论当中, 一个常常被提起的问题就是“算法黑箱”。也就是说, 人类不能解释它的工作原理。
人工智能的核心是“神经网络”。科学家们模仿人类神经系统,让机器进行学习。“神经元”们一层一层分布下来, 每个单元都能接收外部数据, 而后将结果传给下一单元。
还是用“猫”来打比方, 第一层可以将图片切割、降维, 得到许多小图,第二层在每个维度利用色差寻找边缘,三四五层根据勾勒出的边缘确定各个器官形状,六七八层通过各个部分颜色判断毛色、花纹, 瞳色……最后顶层得出答案:这是猫、狗、兔子、其他。
在n(卷积神经网络)出现以前, 机器学习都还处于初级阶段,需要人工提取特征、交给机器。而n出现以后, 它进入到“深度学习”时代。人类半监督, 机器自己分析特征、独立学习。给一万张猫的图片, 说“这都是猫”,它就懂了,再给一张它没见过的, 问“是不是猫”, 它会说是。人们给它正确答案的数据集, 它们便能进行学习,“看”的越多会的越多,不断优化自身能力。因此,“人工智能”定义十分清晰,区别是真·人工智能还是噱头,只需要看它有没有模仿人脑。
然而,对ai每一层都在提取什么特征,以及机器为何要做这些事情、为什么能得出结论,人类无法解释。根据输出,有些提取简单易懂,比如勾勒边缘、模糊图片、突出重点、锐化图片……可是,在很多时候,人类完全get不到!看着某层下来以后图片变成的样子,只能叫一声“什么鬼!”有时人类只能提出几个特征,ai分出好几百层!
它给了人空前的可能,也给了人无尽的困惑。
就像人类无比摸清大脑的工作原理一样,他们同样无法摸清ai的工作原理——训练ai这种方式为何能行?不知道。
它是如何学的?信息存在哪里?为何下此判断?问老天爷。
它好像在玄幻境界。码工时常觉得自己正在养蛊,贼刺激,给蛊虫喂个这个、喂个那个,一掀盖子,嚯,出来一个超厉害的东东!
有人说,让ai向人解释一个东西,相当于让人向狗解释一个东西,听着so sad。
人类历史充分表明,只有一个决策可以解释、分析,人才可以了解它的优点、缺陷,评估风险,知道它在多大程度能被信赖,明白该从哪些方面进行改善。
很多专家说过“必须质疑人工智能为何做出一个决定……显然,如果我们不在动机解释上花功夫,就无法信任这个系统”“难道无人汽车每回出事,企业都说不知原因、ai让它这么干的?”
何况,不幸的是,如同大脑会出错,ai也会出错。
于是问题来了:我们能信任ai吗?我们能在多大程度上相信ai?我们能在生死攸关时信任ai吗?
当然,也有学者表示:“它能做到就足够了!”“大脑一直为你工作,你也一直信任它,但你却不知道大脑是如何工作的。”
目前,各国科学家正致力解开黑箱,政府、行业协会也对此有要求,已经取得一些成果——不少东西都是数学,不过,待研究的部分更多。
阮思澄是一直觉得,这种现象十分正常,没有那么邪乎。在人类的文明当中,往往实践先于理论。比如,老祖宗在打造刀剑时、发明□□时,清楚地知道原理吗?no!都是东西先出来了,能work了,大家才开始研究原因。
ai也是啊!
慢慢来嘛。
不过,虽然如此,攻城狮们写程序时,也能根据经验,知道大概用何结构,之前思恒医疗就是这样做的。ai能自己学,但是,攻城狮们需要设置许多参数,比如用哪一种激活函数;如何搭建网络结构;分别设置多少卷积层、池化层、全连接层,如何排列、架构;用多少个卷积层;用哪一个池化方式;选择多大以及多少卷积核、多大卷积步长和池化步长、多大学习率,又分别从哪层开始、到哪层结束……[注]。也因为没道理可讲,各种奇奇怪怪的结构都有了。层数绝非越多越好,层数越多,说明运行时间越长、传递错误几率越大。
出于这个原因,对算法的调整、修改,经常就是瞎jb试,比较最终结果。
调参数能有效还好,数据也有可能不行!要知道,输入数据的大小、像素、嗓声、甚至亮度和对比度、翻转变换、旋转变换、位移……都可以对最终结果产生影响!甚至为啥?还是,不知道,都是等有最好结果再由人用数学解释。
现在,“经验”并不好用,结果一塌糊涂,可阮思澄和陈一非对于修改全无头绪。
他们甚至无法估摸从不准到准要耗费多长时间。
…………
阮思澄从贝恒那儿继承了个降压方式——搓脸。
她搓了搓,拨打内线叫陈一非,一起开会。
“一非,”阮思澄问,“这个结果,要多久能调整过来?”
气,她想:本来钱纳贝恒都在公司那时,思恒医疗不会陷入这种困境。罢免钱纳、夺回公章耽误了一个月,贝恒接手、不会,消耗了两个月,接着招聘、挖人,等陈一非入职,又是一个月。
陈一非答:“思澄,目前……没有头绪。如果说一个月就能全部搞定非常不负责