麻省理工学院机械科研3周感受

原标题:麻省理工学院机械科研3周感受

本文为学生参加MIT机械科研感受

以下是学生三周感受

第一周

这个星期的开头,我正式接触了电动机械臂Ubuntu 16.04 OS。会见导师之后,先了解了机械臂的构造和其运动背后的物理原理。我吸收了简单的理论知识后,导师带领学生们前往实验室。

导师向学生们展示了机械臂实体、Adafruit 控制芯片和Arduino Nano 数据接收端。

拿到器材的第一件事是接线,需要将Nano的电动机信号输出口和地线与机器臂主板相连(直接插上会导致短路,程序无法上传至Nano 电路板中)。

Adafruit 也需要链接到Nano 的输入端,示意图略显紊乱,只能参照一旁的成品接线。接完,就是日落西山之时,第一天在忙碌中结束了。

星期三,第二天,是自主实验,缺乏实战经验的我,只能从头学习Arduino 编程。导师为我下载了Arduino 的终端程序和Adafruit驱动程序,上传电路板。一天的自习,日落而归。

周四,是一节愉快的数学课。导师讲解了机器臂末端位置三种表示方法: 笛卡尔坐标系,三轴角座标系和四维参数以及转换方法。导师也用矩阵展示了机器臂末端位置的移动方式

实验室里,我从导师的GitHub 资源库里下载了发送指令的python 程序。通过修改其中的参数,我能让机器人做出不同的动作。

周五,鉴于我对Ubuntu OS 相当陌生,我在实验室里自学了Linux指令和ROS基础至日落。

第一个星期在学习中充实地过去了。

第二周

这周,机器臂的操作从程序脚本上升到了使用软件。在导师的指引和课件的帮助下,我初步学会了在虚拟平台上设置机器臂的目标位置,并实施动作规划和虚拟执行。

我使用的是ROS系统自带的RViz 模拟器。它可以通过输入的目标位置计算逆向角位移,向机器臂上的电机发送对应的电脉冲使电机旋转,从而实现虚拟机器臂和真实机器臂的同步。

首先,我建立了一个用于测试的工作空间,从Github 上下载了机器臂的模板和虚拟-现实联动程序和其他必要的脚本。然而,初次运行失败了,因为导师将脚本中一些发送电信号的语句注释掉了,导致那些命令无法使用,只有虚拟机器臂在移动,真实的依然保持默认的垂直位置。我和同学阅读了其他的注释,根据要求激活了必须的命令。

然而,由于对python的生疏,我们测量出的旋转角度-PWM电脉冲之间的线性方程没有正确地运行(y = k*x +b , 每个变量都用一个数组表示。然而数组在python里不能乘以整数,之后的循环乘法似乎应为引用操作的问题无法实施。)

除此之外,我和同学还在自学actionlib ,它是ROS系统内置的一个变量库,用于操作机器人。里面的变量有各个大组,每个大组下有不同类型的变量,包括速度,扭矩,角位移等。

第三周

这周,我和同学完成了第一个项目。在最后一周的时间里,我们在导师的指导下,进行了虚拟机器人系统的realsense 成像。在Rviz 用户视图中,启动之前安装好的成像模块,可以在3D 视图中见到realsense intel相机生成的点阵。这点阵和图像中原有的机器臂图像结合在一起,就是进行自动识别和抓取的第一步。

之后,是图像离析,将相机捕捉到的画面按像素颜色和点的深度进行分割,输出若干图形组件,其中就有目标物体。成像模块会根据目标的光学反馈,检测出目标的几何中心与形态。接着,它会将数据发布在系统上。根据这些数据,动力规划模块则计算出每个舵机的目标角度并通电执行。这样实现了自动识别抓取。

今天和新的导师见了面,夏老师是个风趣的人。导师讲述了自己的机器人研究发展经历,和科学研究的常规流程。我领到了装有机器人和车部件的盒子,开始组装。

-------------------------

想要了解名校科研详情,可以+名校科研-科研顾问-vx:123911280,进行咨询

或关注我们的公众号:“researchproject”进行了解返回搜狐,查看更多

责任编辑:

声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
免费获取
今日搜狐热点
今日推荐