近日,来自中央音乐学院的独奏家与美国人工智能“乐团”携手演出了12首中外作品,这是音乐人工智能伴奏系统在中国首次演出。这次演出是中央音乐学院与美国印第安纳大学信息计算与工程学院联合成立“信息学爱乐乐团”实验室后的重要成果。除小提琴、长号、双簧管、萨克斯等传统西洋乐器外,演出还加入了人工智能协奏的中国乐曲《长城随想曲》。
但其实音乐人工智能已经不新鲜了,在国外,登陆Jukedeck的网站,只需输入音乐类型、心情、速度节奏、演奏乐器以及长度等基本信息,就可以轻易创作出一首优美的乐曲。AmperMusic也提供类似的音乐创作服务。
很长一段时间来,AI的研究都停留在文字层面,比如著名的图灵测试,证明机器能够像人类一样智能地回答书面问题。而如果让机器变得更聪明,仅仅处理文字显然是不够的。事实上,人类心智非常善于视觉处理,从所见当中识别图案、物体以及文本情景的能力。
当前,AI已经进入到生活中的各个层面,在互联网行业已有不少案例。图片识别方面,年谷歌推出GooglePhotos,搜寻特定某人,你会找到对方从现在到婴儿时期的照片;音乐创作层面上,年,索尼公司的研究人员使用一种名为“流机器”(FlowMachines)的软件,创作了一首披头士风格的旋律;无人驾驶汽车方面,年上海交通大学成功研制出首辆城市无人驾驶汽车;视频识别方面,年极链科技Video++创立,并推出其独立研发的核心自主研发产品,文娱人工智能系统「VideoAI」。目前,VideoAI已实现场景、物体、人脸、品牌、表情、动作、地标、声音检索8大维度的数据结构化,人脸全序列采样辨识算法对识别视频内的侧脸、面部大面积遮挡等极端情况都有着非常高的准确率。
对于一些复杂的事物,现在的算法还只能从表面数据去推测它的内部机制。简单的解释,比如猪圈里猪被围栏挡住了,从外面看不到猪,我们怎么预测猪的活动呢?我们可以想办法把一根长木棍绑在猪腿上,外面的人至少能看到木棍顶端的晃动,那么现在就能根据晃动情况推测猪是在走路吃饭还是在满地打滚,以及下一步又会干什么。
目前的人工智能的预测算法和人一样,就是让计算机看看已经发生了什么,从过去的数据里找规律,然后利用这些规律来预测未来,某种程度上,这属于“刻舟求剑”。
虽然AlphaGo打败了柯洁,但综合来说,目前AI的智力还比不过7岁儿童。当然,AI成长的速度非常快,而且,这仅仅是一个开始。在绝大多数情况下,技术几乎都能通过API,开源程序或服务化处理得以应用实现。我们已经站在了未来世界的入口,无论是图像AI、视频识别、音乐演奏还是无人驾驶,都将成为这个世界的一个基本特征。
转载请注明:http://www.0431gb208.com/sjszlff/1531.html