到现在为止,互联网的基础架构是冰冷而理性的,光缆、数据、通信和 01 就是一切。计算机的思维是明确而不模糊的,它没有喜怒哀乐,相应的对人类情感的认知也是非常薄弱。
如果有办法让计算机能够识别人类情绪,这个世界会不会更美好呢?海妖音乐的创始人魏清晨就是抱着这个信念在做事的。他们在去年推出了一个叫海妖音乐的应用,你说一句话,它就能通过分析声音的语调、音强、节奏等元素,判断你现在的情绪,然后推荐相应的音乐。最近他们正在筹划同天天动听、讯飞的合作,这些合作伙伴可能后续会推出一些新功能,调用海妖音乐的 API 来完成语音识别情绪的功能。
坦率的说,海妖音乐现在能实现的效果还非常初级,需要说比较长的一句话,对情绪的判断也略显粗糙。但是他们对“情绪会在未来互联网中扮演什么角色”这个问题的想法打动了我。列几个可能的场景:
你下班回家了,又累又乏,有些抑郁,坐在沙发上,对着智能音响说了句:“放首歌听吧。”音响分辨出你现在的情绪状态,给你放了首暖色调的 seasons in the sun。听着听着,年轻时的记忆浮现出来,你慢慢的有精神了。
这个场景是最自然的延伸,情绪在此处起着“润物细无声”的作用,类似的可以扩展到其他公众场合的背景乐中,比如咖啡馆或者酒吧里大家都很嗨,背景乐就可以做相应的变化。
情绪识别还能在其他领域起作用。除了推荐音乐,它还能推荐视频、文字、商品等其他内容;除了推荐,它还可以根据情绪改变产品的结构或者呈现方式,从而改变用户体验,比如软银的机器人 Pepper,它可以在与人交流时变化语调,也能识别人的情绪,这样就更容易同人打交道;还有这个萌萌的 JIBO,它的定位是 social robot,是家庭的一员而不只是一个工具,按这个定位看的话,它一定不能缺了情绪识别的能力。
但是真要达到这个效果,还有很长的路要走。现在语音识别在许多场合下的体验都不够好,更智能的情绪识别就更难做了。现有的几家做情绪识别的公司,也只能从面部表情或者语音语调中获取信息,推测用户的情绪。更完善的情绪识别,还需要人工智能方面的突破,实现语义性猜测,这就跟真人差不多了。察言观色,小孩都会的技能,计算机要想获得却是这么难。