项目简介
本项目基于YARP框架开发,目标是让iCub机器人执行一系列复杂交互任务。通过语音命令、视觉识别、深度学习分类、运动学控制和动力学感知等模块协同工作,机器人能识别物体、执行指向动作,并依据用户反馈调整自身行为。
项目的主要特性和功能
- 语音命令输入:借助语音识别模块接收用户语音命令,如“指向某个物体”“返回初始位置”,支持识别“盒子”“汽车”“玩具”等多种物体名称。
- 视觉处理:利用视觉模块获取并处理机器人摄像头捕捉的图像,通过图像处理技术定位物体并计算其在机器人坐标系中的位置。
- 深度学习分类:运用Caffe深度学习框架对图像中的物体进行分类,识别结果通过YARP网络发送给管理模块以指导后续动作。
- 运动学控制:控制机器人的手臂和头部执行指向、握手等动作,通过RPC接收指令实现对机器人运动的精确控制。
- 动力学感知:检测机器人受到的接触力,判断用户是否确认或拒绝机器人的行为,依据力传感器数据和预设阈值实现接触状态的感知和反馈。
安装使用步骤
复制项目代码
bash
cd vvv18-demo-team-orange
构建和安装
bash
mkdir build
cd build
cmake ..
make install
运行模块
- 确保LUA目录指向项目的路径。
- 若只需运行部分模块,可单独构建和运行特定模块:
bash cd src/<module_of_choice> mkdir build cd build cmake .. make install
通过上述步骤,即可成功安装并运行本基于YARP框架的机器人智能交互系统。
下载地址
点击下载 【提取码: 4003】【解压密码: www.makuang.net】