人工智能的未来与目前的困难

人工智能在当今世界越来越流行。许多行业都有人工智能的名字,人工智能已经成为几乎所有互联网技术公司的必备基因。就连很多制造企业都要谈人工智能,就像人类一夜之间就进入了人工智能时代一样。

但是很多企业只是对人工智能应用水平的开发,而不是对技术的研究,而企业应用的实施可以促进人工智能技术的发展。对于人工智能而言,计算机视觉一直是深度学习领域最热门的研究领域,应用最广泛的有人脸识别、图像检索识别、智能控制、生物特征识别(指纹、虹膜、人脸匹配)、智能驾驶等。而目前人工智能还是有许多的难题的,比如训练效率低下,需要大量的计算资源,大部分理论缺乏可解释性。

人工智能的训练效率低下

在传统数据中心完成的工作包括视频流、电子邮件和社交媒体的信息处理,这些都是大数据。而AI 是计算密集型的系统,因为它需要通过大量数据喂养,直到它学会理解它,即经过训练。

训练语言网络的一个常见方式是,是从各类百科和新闻媒体、自媒体等网站搜集数据提供大量文本,并过滤遮挡一些单词,并要求人工智能它们猜测被过滤和遮挡的单词。就比如一个例子是"今天,小明生病了,没有来上班",把"生病"这个词遮盖掉,然后让机器去猜测可能的单词。最初,模型会弄错它们,但是,经过许多回合的训练调整后,连接权重开始迭代变化并拾取数据中的一些模式信息。这样整个人工智能的网络最终将变得准确。

与人们学习的方式相比,这种训练效率是很低的。我们现代人工智能使用人工神经网络,这是模拟人脑神经元的数学计算。每个神经元与其相邻神经元的连接强度是称为权重的网络参数。而要学习如何理解语言,则这些网络参数都是从随机的权重开始,并调整它们,直到输出在期望误差的合理范围内或大概率同意正确答案为止。

据统计称,一种“基于Transformer的双向编码器”的模型使用了33亿个英文书籍和维基百科文章中的单词。而且在训练中读取次数在40次以上。相比之下,一个平均学习说话的孩子在五岁前可能会听到4500万字,比这类模型要少3000多倍。可见人工智能的网络模型和训练样本决定着它的输出效果,更可怕的是这样的效率相比较人类而言无疑是非常低下的。

而目前的AI 模型比它们要大得多,并且每年都在变大。GPT-2是最近的一种语言模型,在其网络中具有15亿个权重。而升级版的GPT-3由于输出效果和精度高而引起了轰动,其参数权重为1750亿个,训练一次需要花费1000多万美元。

寻找合适的结构

语言模型的构建成本更高,因为这种训练过程在开发过程中多次发生。这是因为研究人员希望找到网络的最佳结构(神经元的数量、神经元之间的连接数、学习过程中参数变化的速度等参数)。这种类似的超参数调节他们尝试的组合越多,网络实现高精度输出的机会就越好。相比之下,我们人类的大脑不需要找到一种最佳结构,因为他们可能就是进化磨练后的最佳结构模型。

随着企业和学术界在人工智能领域的竞争,提高技术水平的压力也越来越大。即使机器翻译等高难度任务的准确率提高1%,也被认为意义重大,能带来良好的宣传效果和更好的产品。然而,为了得到1%的改进,研究人员可能会对模型进行成千上万次的训练,每次训练的结构不同,直到找到最好的。同时也带来了大量的设备能源浪费。

目前,人工智能模型是在图形处理器等专用硬件上进行训练的。与传统的CPU相比,它需要更多的功耗。这一切意味着,先进人工智能模型的发展将构成巨大的碳足迹。除非我们转向100%可再生能源,否则人工智能的进步可能与减少温室气体排放和减缓气候变化的目标相悖。开发的财务成本也变得如此之高,只有少数选定的实验室和机构企业能够负担得起,他们将成为制定开发哪种类型人工智能模型的标准实验室。

自GPT和BERT出现以来,NLP进入了“创造奇迹”的时代。在这个时代,大数据、大参数是构建好模型的基础,当然这也需要大量的计算资源。

未来

很明显人工智能未来将与普通人告别,大型企业和专业机构将去大规模训练和生成超大模型,个人将无力支付庞大的数据和计算资源所带来的高额代价。普通实践者应该都需要学习基本的人工智能概念和基本模型。以接续未来人工智能理论的不足。

预计到了2045年,人工智能将全面超越人类智能,世界将开启一个新的文明时代。虽然目前人工智能虽没有强大的学习能力,但从计算设备上,计算能力已经远超人类。而在部分领域人工智能也已经可以替代人类完成了。

(0)

相关推荐