社区分享 | 用 PoseNet + TensorFlow.js 在浏览器实现体感游戏

2020 年 2 月 11 日 TensorFlow

文 / Charlie Gerard,Google Developers Expert

VR 游戏是近几年兴起的新类型游戏,玩家穿戴 VR 设备后可以身临其境的感受到游戏的魅力。由于没有 VR 设备,本文作者没玩过太多 VR 游戏,但她在试玩过节奏光剑(Beat Saber)后喜欢上了这款游戏,并尝试自己实现。


如果你没有听说过节奏光剑,可以把它理解为一款 Tr on 风格的游戏。玩家使用体感控制器跟着音乐的节奏击打“节拍”。它玩起来确实很有意思,但是需要你拥有 HTC Vive Oculus Rift Playstation VR 三者其中的至少一套。

这些 VR 的游戏设备价格昂贵,并非每个人都能玩得起 

几个月前,我在 GitHub 上发现了 Supermedium 的这个 仓库 。它通过 Web 技术对原版的节奏光剑进行克隆。更确切地说,是使用 Web VR 框架   A-Frame 实现的,这给我留下了深刻印象!
直接运行 Web 版的节奏光剑游戏,开始播放歌曲,你能看到有“节拍”向你袭来,但是环顾屏幕,你会发现好像并不能和游戏互动。 这又回到了前面提到的问题: 你需要一套昂贵的 VR 设备
我想看看我能不能做些什么。 在进一步了解后我决定添加一个姿势检测模型——基于 TensorFlow.js 实现的 PoseNet ,以便能够在我的浏览器中玩这个游戏……最终搞定了! 🤩🎉
好吧,虽然它的游戏性能不那么理想(主要由于使用摄像头追踪不如使用操纵杆那样精确),但我前期的主要目标是测试一下这个设想是否能实现。
我成功实现了这个游戏,这个结果让我非常高兴,因为这样一来玩家的硬件门槛仅仅是一台笔记本电脑(当然,古董机除外)!

最终结果演示:

使用手势在浏览器中玩节奏光剑的演示
如果您对模型构建方案的细节不感兴趣,可以直接查看在线 实时演示 ,也可以在 Github 仓库 中找到所有代码。
如果您像我一样对这个应用成果感到兴奋,就听我谈谈它的工作原理吧!


步骤 1 逆向工程
大多数代码库都依赖于  BeatSaver Viewer   开源项目。
通常,在我的业余项目里,我喜欢一切从零开始。这么做我能够确切地掌握各个地方的代码,从而使我可以轻松又快速地进行修改。但这次情况不一样,当我看到  BeatSaver 的公开仓库时我决定以他们的代码库为基础开始工作。因为当其他人已经完成如此出色的作品时,花时间再次从零开始编写是无意义的。
不过,我很快撞了南墙。 我不知道接下来应该从何入手。 如果使用常规的开发者工具在浏览器中检查  3D  场景,试图找出应该更改的组件,却发现唯一能获取的就是 Canvas 完全无法检查场景中的不同  3D  元素。
这时候派  A-Frame  上场,使用 CTRL + Option / Alt + I 切换检查器,但仍然无法帮助我找到所需的元素。
撞墙后我决定掉头。 我应做的是深入研究代码库,并尝试弄清程序运行过程中发生了什么。 我在 A-Frame 方面没有太多的经验,所以我对一些混入类( mixin )的名称,某些组件的来源,以及它们在场景中的渲染方式等等感到有些困惑。
最后,我发现我要查找的  beat  组件具有   destroyBeat 方 法,这就是我正寻找的!这个方法是正常游戏时,玩家击中“节拍”后会触发的方法。
为了测试此功能是否正是我需要的,我在  beat  组件中快速进行了修改,只要点击页面就可以触发  destroyBeat  函数(开挂之百发百中),如下所示:
document.body.onclick = () => this.destroyBeat();
重新加载页面,开始游戏,等待“节拍”出现,单击页面上身体的任意位置,然后看到“节拍”显示被击中的特效! 终于可以和游戏互动了,这是很好的第一步!

现在,我对下一步该如何进行有了头绪,我开始研究 PoseNet,以查看可以使用哪种数据。



步骤 2 使用 PoseNet 追踪身体移动

基于 Tensorflow.js 实现的 PoseNet 模型允许您在浏览器中进行姿势估计,并获取一些关键点的信息,例如肩膀,手臂,手腕的位置。

在将其应用到游戏中之前,我对其中的各项功能分别进行了测试以了解其工作原理。 基本实现如下所示:
在  HTML 文件中,首先导入 Tensorflow.js 和 PoseNet 模型:
<script src="https://cdn.jsdelivr.net/npm/@tensorflow/tfjs"></script>
<script src="https://cdn.jsdelivr.net/npm/@tensorflow-models/posenet"></script>
我们还可以在网页上展示来自摄像头的视频流,并标记我们正在追踪的身体部位,这里我们选择为手腕。
为此,我们首先添加一 个 video 标签和一个覆盖在视频画面上方的 Canvas (画布)
   <video id="video" playsinline style=" -moz-transform: scaleX(-1);
-o-transform: scaleX(-1);
-webkit-transform: scaleX(-1);
transform: scaleX(-1);
"
>

</video>
<canvas id="output" style="position: absolute; top: 0; left: 0; z-index: 1;"></canvas>
姿势检测的 JavaScript 部分涉及以下几个步骤。

首先,我们需要设置 PoseNet。

// 新建一个对象并设置我们想要的模型参数
const poseNetState = {
algorithm: 'single-pose',
input: {
architecture: 'MobileNetV1',
outputStride: 16,
inputResolution: 513,
multiplier: 0.75,
quantBytes: 2
},
singlePoseDetection: {
minPoseConfidence: 0.1,
minPartConfidence: 0.5,
},
output: {
showVideo: true,
showPoints: true,
},
};

// 加载模型
let poseNetModel = await posenet.load({
architecture: poseNetState.input.architecture,
outputStride: poseNetState.input.outputStride,
inputResolution: poseNetState.input.inputResolution,
multiplier: poseNetState.input.multiplier,
quantBytes: poseNetState.input.quantBytes
});

成功加载模型后,我们实例化视频流:

let video;

try {
video = await setupCamera();
video.play();
} catch (e) {
throw e;
}

async function setupCamera() {
const video = document.getElementById('video');
video.width = videoWidth;
video.height = videoHeight;

const stream = await navigator.mediaDevices.getUserMedia({
'audio': false,
'video': {
width: videoWidth,
height: videoHeight,
},
});
video.srcObject = stream;

return new Promise((resolve) => {
video.onloadedmetadata = () => resolve(video);
});
}

视频流准备好之后,我们开始姿势检测:

function detectPoseInRealTime(video) {
const canvas = document.getElementById('output');
const ctx = canvas.getContext('2d');
const flipPoseHorizontal = true;

canvas.width = videoWidth;
canvas.height = videoHeight;

async function poseDetectionFrame() {
let poses = [];
let minPoseConfidence;
let minPartConfidence;

switch (poseNetState.algorithm) {
case 'single-pose':
const pose = await poseNetModel.estimatePoses(video, {
flipHorizontal: flipPoseHorizontal,
decodingMethod: 'single-person'
});
poses = poses.concat(pose);
minPoseConfidence = +poseNetState.singlePoseDetection.minPoseConfidence;
minPartConfidence = +poseNetState.singlePoseDetection.minPartConfidence;
break;
}

ctx.clearRect(0, 0, videoWidth, videoHeight);

if (poseNetState.output.showVideo) {
ctx.save();
ctx.scale(-1, 1);
ctx.translate(-videoWidth, 0);
ctx.restore();
}

poses.forEach(({score, keypoints}) => {
if (score >= minPoseConfidence) {
if (poseNetState.output.showPoints) {
drawKeypoints(keypoints, minPartConfidence, ctx);
}
}
});
requestAnimationFrame(poseDetectionFrame);
}

poseDetectionFrame();
}

在上面的示例中,我们调用 drawKeypoints 函数在手掌上方的画布上绘制点。代码如下:

function drawKeypoints(keypoints, minConfidence, ctx, scale = 1) {
let leftWrist = keypoints.find(point => point.part === 'leftWrist');
let rightWrist = keypoints.find(point => point.part === 'rightWrist');

if (leftWrist.score > minConfidence) {
const {y, x} = leftWrist.position;
drawPoint(ctx, y * scale, x * scale, 10, colorLeft);
}

if (rightWrist.score > minConfidence) {
const {y, x} = rightWrist.position;
drawPoint(ctx, y * scale, x * scale, 10, colorRight);
}
}

function drawPoint(ctx, y, x, r, color) {
ctx.beginPath();
ctx.arc(x, y, r, 0, 2 * Math.PI);
ctx.fillStyle = color;
ctx.fill();
}

结果如下:

现在,追踪功能已独立完成。我们继续加油,将其添加到 BeatSaver 代码库中。



步骤 3 将姿势追踪添加至 BeatSaver
要将姿势检测功能添加到这款 3D 游戏中,我们需要编写上面的代码,并将其合并到 BeatSaver 的代码。
我们要做的就是将 video 标签添加到主 HTML 文件中,并创建一个新的 JS 文件,这个文件包含上面的那些 JS 代码,并将其导入主 HTML 文 件。

在这个阶段,我们应该获得以下反馈:

Canvas 上 的手部位置追踪以及展示点
这是个不错的开头,但是我们还差一点。现在,我们到了这个项目中比较棘手的部分。  PoseNet 使用 2D 来追踪位置,而 A-Frame 游戏使用 3D 进行追踪 ,因此,从手部追踪获得的蓝色和红色圆点实际上并 未添加到 3D 场景中。为了能够击中“节拍”,我们需要将这些信息都引入到游戏中。
为此,我们需要完成一个转换:把画布上代表手的 2D 圆点转换为一个自定义的 3D 对象并放到游戏里正确的空间坐标上。你也发现了,这可不是简单的事...
这两种环境下的坐标设置方式并不相同。举例来说,并不能 直接把 2D 画布上 左手的 (x,y) 坐标当做 3D 对象的 (x,y) 坐标。
因此, 接下来就是找到一种方法来映射 2D 和 3D 两个环境中的位置。


映射 2D 和 3D 坐标

如上所述,2D 和 3D 世界中的坐标设置方式不同。
在映射之前,我们需要新建一个 3D 对象,在游戏中代表我们的手。

在 A-Frame 中,我们可以创建所谓的实体组件(entity component):一个可以添加到场景中的自定义占位符对象。

创建自定义 3D 对象
在下面的例子中,我们要创建一个简单的立方体,具体这样做:
let el, self;

AFRAME.registerComponent('right-hand-controller', {
schema: {
width: {type: 'number', default: 1},
height: {type: 'number', default: 1},
depth: {type: 'number', default: 1},
color: {type: 'color', default: '#AAA'},
},
init: function () {
var data = this.data;
el = this.el;
self = this;

this.geometry = new THREE.BoxGeometry(data.width, data.height, data.depth);
this.material = new THREE.MeshStandardMaterial({color: data.color});
this.mesh = new THREE.Mesh(this.geometry, this.material);
el.setObject3D('mesh', this.mesh);
}
});
然后,为了能够在屏幕上看到我们的自定义实体,我们需要将此文件导入 HTML ,并使用  a-entity  标签。
<a-entity id="right-hand" right-hand-controller="width: 0.1; height: 0.1; depth: 0.1; color: #036657" position="1 1 -0.2"></a-entity>

在上面的代码中,我们新建了一个类型为 right-hand-controller 的实体,并为其设置一些特性。

现在,我们应该可以在页面上看到一个立方体,如图中右下方,那个小小的绿色立方体:

改变这个立方体位置,就需要从 PoseNet 获得的数据。这就需要向实体组件中添加一些函数:
// 这个函数只有在组件初始化完成,并且一个属性更新后才会运行
update: function(){
this.checkHands();
},
checkHands: function getHandsPosition() {
// 如果从 PoseNet 获得的右手位置与先前的不同,那么触发 onHandMove 函数
if(rightHandPosition && rightHandPosition !== previousRightHandPosition){
self.onHandMove();
previousRightHandPosition = rightHandPosition;
}
window.requestAnimationFrame(getHandsPosition);
},
onHandMove: function(){
// 首先创建一个三维向量用以储存手部的值,值是从 PoseNet 检测手部并根据屏幕上的位置转换而来
const handVector = new THREE.Vector3();
handVector.x = (rightHandPosition.x / window.innerWidth) * 2 - 1;
handVector.y = - (rightHandPosition.y / window.innerHeight) * 2 + 1;
handVector.z = 0; // z 值可以直接设为0,因为我们无法通过摄像头获取真实的景深

// 获得摄像头元素并用摄像头的映射矩阵“逆映射”我们的手部向量(总之是个黑科技,我也说不清)
const camera = self.el.sceneEl.camera;
handVector.unproject(camera);

// 获得摄像头对象的位置
const cameraObjectPosition = camera.el.object3D.position;
// 接下来的三行便是将 2D 屏幕里手部的坐标映射到 3D 游戏世界里
const dir = handVector.sub(cameraObjectPosition).normalize();
const distance = - cameraObjectPosition.z / dir.z;
const pos = cameraObjectPosition.clone().add(dir.multiplyScalar(distance));
// 我们用下面的新坐标来确定前面提及的立方体 'right-hand-controller' 的 3D 方位
el.object3D.position.copy(pos);
el.object3D.position.z = -0.2;
}

在这一阶段,我们可以将手移到摄像头前面,并看到 3D 立方体在移动:

我们需要做的最后一件事是所谓的 光线投射 (Raycasting),以便能够击打“节拍”。


光线投射

Three.js 中,通常使用光线投射进行鼠标拾取,即找出 2D 屏幕上的鼠标悬停对应 3D 空间中的哪个对象上面。这个功能可以用于碰撞检测。
在我们的程序中,我们需要检测的不是鼠标,而是我们的“立方体手”。
要检查我们的手在哪个 3D 对象上面,我们需要在  onMoveHands  函数中添加以下代码:
// 新建一个针对我们手部向量的光线投射器(Raycaster)
const raycaster = new THREE.Raycaster();
raycaster.setFromCamera(handVector, camera);

// 获取全部 <a-entity beatObject> 元素
const entities = document.querySelectorAll('[beatObject]');
const entitiesObjects = [];

if(Array.from(entities).length){
// 如果这里有“节拍”实体,那么捕获这些实体,并写入数组
for(var i = 0; i < Array.from(entities).length; i++){
const beatMesh = entities[i].object3D.el.object3D.el.object3D.el.object3D.children[0].children[1];
entitiesObjects.push(beatMesh);
}

// 通过光线投射器,检查我们的手部立方体是否穿过了“节拍”实体的外轮廓,即发生碰撞.
let intersects = raycaster.intersectObjects(entitiesObjects, true);
if(intersects.length){
// 如果发生碰撞,获得这个实体以及它的颜色和类型
const beat = intersects[0].object.el.attributes[0].ownerElement.parentEl.components.beat;
const beatColor = beat.attrValue.color;
const beatType = beat.attrValue.type;
// 如果这个“节拍”实体是蓝色的,并且不是炸弹(即正确击打),那么触发“节拍”被破坏的效果
if(beatColor === "blue"){
if(beatType === "arrow" || beatType === "dot"){
beat.destroyBeat();
}
}
}
}

我们完成了!我们使用 PoseNet 和 Tensorflow.js 来检测手部及其位置,将它们绘制在画布上,将它们映射到 3D 坐标,并使用光线投射器来检测“节拍”的碰撞并击毁它们!🎉 🎉 🎉

我当然还额外花了一些步骤才能弄清楚所有这一切,总而言之这是一个非常有趣的挑战!



局限性

当然,和以往一样,这种游戏方案也存在局限性。接下来将逐一说明:

延迟和准确性
如果您尝试过这个项目的演示,可能会注意到从移动手到屏幕上有反映,这个过程存在一定的延迟。

我认为这是意料之中的,但实际上它能以如此快的速度识别我的手腕并计算出应该将它们投射在屏幕上的哪个地方。这已经给我留下了深刻的印象。

环境照明

通常来说,涉及到计算机视觉的应用,都需要良好的照明环境以充分发挥性能。如果房间内的照明不够好,您的任何体验都不会太好甚至完全不可用。这个程序仅使用笔记本电脑上一个小小的摄像头的视频流来查找最接近人体形状的物体,因此,如果光线不足,它将无法做到这一点,并且游戏将无法正常工作。

用户体验
在真正的节奏光剑游戏中,随着碰撞“节拍”,真实环境中的操作杆会做出运动反馈吗?如果没有,那么应该加上,以便用户可以获取有关事件发生的触觉反馈。
但是,在这个特殊的项目中,反馈只是视觉上的,从某种程度上来说,感觉有点怪异。当玩家集中“节拍”时,肯定希望能获得真正的打击感。
这个问题或许可以通 过 Web 蓝牙连接 Arduino 和振动传感器来解决,但这又是一个巨坑,以后再说吧...😂

就到这里了! 


希望你能够喜欢!❤️✌️



如果您想详细了解 本文讨论 的相关内容,请参阅以下文档。这些文档深入探讨了这篇文章中提及的许多主题:

  • Beat Saber
    https://beatsaber.com/

  • HTC Vive
    https://www.vive.com/au/

  • Oculus Rift
    https://www.oculus.com/?locale=en_US

  • Playstation VR
    https://www.playstation.com/en-au/explore/playstation-vr/

  • 仓库
    https://github.com/supermedium/beatsaver-viewer

  • Supermedium
    http://supermedium.com/ 

  • A-Frame
    https://aframe.io/

  • 实时演示
    https://beat-pose.netlify.com/

  • Github 仓库
    https://github.com/charliegerard/beat-pose

  • BeatSaver Viewer

    https://github.com/supermedium/beatsaver-viewer

  • PoseNet model
    https://github.com/tensorflow/tfjs-models/tree/master/posenet



—推荐阅读—



登录查看更多
17

相关内容

IEEE虚拟现实会议一直是展示虚拟现实(VR)广泛领域研究成果的主要国际场所,包括增强现实(AR),混合现实(MR)和3D用户界面中寻求高质量的原创论文。每篇论文应归类为主要涵盖研究,应用程序或系统,并使用以下准则进行分类:研究论文应描述有助于先进软件,硬件,算法,交互或人为因素发展的结果。应用论文应解释作者如何基于现有思想并将其应用到以新颖的方式解决有趣的问题。每篇论文都应包括对给定应用领域中VR/AR/MR使用成功的评估。 官网地址:http://dblp.uni-trier.de/db/conf/vr/
Sklearn 与 TensorFlow 机器学习实用指南,385页pdf
专知会员服务
129+阅读 · 2020年3月15日
《强化学习—使用 Open AI、TensorFlow和Keras实现》174页pdf
专知会员服务
136+阅读 · 2020年3月1日
金融时序预测中的深度学习方法:2005到2019
专知会员服务
166+阅读 · 2019年12月4日
社区分享 | Spark 玩转 TensorFlow 2.0
TensorFlow
15+阅读 · 2020年3月18日
利用 AutoML 的功能构建和部署 TensorFlow.js 模型
TensorFlow
6+阅读 · 2019年12月16日
要替代 TensorFlow?谷歌开源机器学习库 JAX
新智元
3+阅读 · 2018年12月14日
程序员精选:TensorFlow和ML前5名的课程
云栖社区
8+阅读 · 2018年8月27日
在浏览器中使用tensorflow.js进行人脸识别的JavaScript API
人工智能头条
6+阅读 · 2018年7月2日
令人困惑的TensorFlow!
机器之心
4+阅读 · 2018年7月2日
TensorFlow神经网络教程
Python程序员
4+阅读 · 2017年12月4日
Arxiv
6+阅读 · 2019年8月22日
Arxiv
5+阅读 · 2018年5月1日
Arxiv
3+阅读 · 2018年1月31日
VIP会员
相关资讯
社区分享 | Spark 玩转 TensorFlow 2.0
TensorFlow
15+阅读 · 2020年3月18日
利用 AutoML 的功能构建和部署 TensorFlow.js 模型
TensorFlow
6+阅读 · 2019年12月16日
要替代 TensorFlow?谷歌开源机器学习库 JAX
新智元
3+阅读 · 2018年12月14日
程序员精选:TensorFlow和ML前5名的课程
云栖社区
8+阅读 · 2018年8月27日
在浏览器中使用tensorflow.js进行人脸识别的JavaScript API
人工智能头条
6+阅读 · 2018年7月2日
令人困惑的TensorFlow!
机器之心
4+阅读 · 2018年7月2日
TensorFlow神经网络教程
Python程序员
4+阅读 · 2017年12月4日
Top
微信扫码咨询专知VIP会员