对于“人工智能”,我们总是会希望它不仅具备超越人类的计算感知能力,也需要它能够与人进行情感交流,满足人的情感和心理需求。
但是,”人类情感“这个异常复杂、甚至可能连我们自己都还没搞清楚的问题,如何让冷冰冰的机器理解呢?人类在经历大量研究开发后,终于在这个问题上明确:我们不需要弄懂人类情感的本质,只需要让机器对情感表达的各种信号(面部表情、语音、语言等)进行分析并输出结果就可以了。
于是,现在你在市面上看到了像Pepper这样的“陪伴式情感机器人”。它能够通过判断人类的面部表情和语调等,“读”出人类情感、与人交流。
今天,我们用慧编程尝试一下,让它“读”懂我们的情绪!
案例分享:情绪测试仪
本视频为同同爸创作的“情绪测试仪”完整教程,时长约7分20秒
01
准备工作
- 准备一台电脑
- 下载慧编程( https://www.mblock.cc)或者登录慧编程网页端(https://ide.makeblock.com/)
02
情绪识别原理
人工智能的情绪识别是什么?
简单来讲,就是用人工的方法和技术赋予计算机或机器人人类式的情感,使之具有表达、识别和理解喜怒哀乐,模仿、延伸和扩展人的情感的能力。
人工智能理解人类情绪的方法其实和我们人类是一样的,无非就是【看脸】和【听声】。即使人会故意控制面部表情和声音不发生变化或者展现与内心真正想法不一致的表情和声音,也总会露出破绽,那么此时人工智能借助高速摄像机和高性能处理器就可能比人类更好地理解情绪。
03
实现步骤
步骤1:添加扩展
打开慧编程,在“角色”Tab栏下,点击积木类别栏下方的“添加扩展”,在弹出的对话框中找到【人工智能服务】扩展,点击“添加”。
添加完扩展后,我们发现积木类别栏中,多出了5个名字为【语音交互】【文字识别】【图像识别】【人体识别】【自然语言处理】的类别,里面有很多人工智能积木。
在这个案例中,我们主要会用到【人体识别】中的【人体特征识别】和【情绪识别】功能,其他功能后续会讲解。
1.识别人体特征:通过摄像头获取2秒、5秒、10秒后镜头前的图像,并识别图像中的主体人物的特征。
2.人体特征识别结果:该积木块输出数据类型为字符串,保留最后一次识别结果。积木块可被勾选,勾选后在舞台显示识别结果。
当前慧编程的人体特征识别结果主要有9类,具体如下:
类别
识别结果说明
性别
男性、女性
年龄阶段
幼儿、青少年、青年、中年、老年
身体朝向
正面、背面、左侧面、右侧面
上身服饰类型
长袖、短袖
下身服饰类型
长裤、短裤、长裙、短裙、不确定
上身服饰颜色
红、橙、黄、绿、蓝、紫、粉、黑、白、灰、棕
下身服饰颜色
红、橙、黄、绿、蓝、紫、粉、黑、白、灰、棕、不确定
帽子类型
无帽、普通帽、安全帽
眼镜类型
戴眼镜、戴墨镜、无眼镜、不确定
3.识别人脸情绪:通过摄像头获取2秒、5秒、10秒后当前镜头前图像,识别图像中的主体人物的人脸情绪。
4.情绪程度的识别结果:显示所识别主体人物的情绪程度,数据范围为0~100。
注:当该主体人物无某种表情(如愤怒)时,该表情(如愤怒)返回值为空。积木块可被勾选,勾选后在舞台显示识别结果。
5.情绪类型识别检测:检测主体人物的人脸情绪。
当前慧编程可识别的情绪主要有7类,具体如下:
愤怒、厌恶、恐惧、高兴、伤心、惊讶、无情绪
步骤2:构思程序
1.继上一节课研究了慧编程的【手势识别】功能后,(完整文本和教学视频戳这里:慧编程人工智能应用 | 比个手势就能做算术!),我继续研究【人体识别】的其他积木块,发现:【人体特征识别】类的积木能检测出9种人体特征,具体通过以下积木块就可以看到9种检测结果:
(注意勾选积木块,就可以在舞台上显示)
2.如果仅仅是用“检测人体特征”积木块的话,项目可能还不够生动、有趣。因此,我打算结合【情绪识别】和【语音识别】积木块来一起完成一个“情绪检测仪”的作品。
期望实现的效果是:计算机能识别我是否戴眼镜,如果戴了眼镜,则告知需摘掉眼镜才能检测情绪;如果没戴眼镜,直接开始检测情绪,并给到对应的反馈。
步骤3:关键源码实现
步骤4:检测效果
**关注“童心制物STEAM教育研究院”微信公众号,在后台回复“情绪”即可查看示例作品,还能一键查看完整程序哦!
有奖征集
如果您使用
【语音交互】【文字识别】【图像识别】【人体识别】【自然语言处理】等
人工智能扩展创作作品,
欢迎投稿到慧编程作品社区专题
(扫码即可进入“慧编程人工智能应用”专题)
一旦您的作品被我们选用,
不仅有机会在官方公众号等平台获得更多曝光,
还能获得Makeblock限时惊喜礼物!
*如有任何疑问,
请随时联系慧编程小助手!
文:同同爸
编辑:Yanyan
部分图片来源网络