用Unity3D做人机交互界面设计案例摄像头游戏用什么实现图像处理

人机交互中的计算机视觉技术
人机交互中的计算机视觉技术
关键词:普适计算,自然人机交互,计算机视觉
在人们的交谈和彼此间的交互过程中,视觉信息显然是很重要的。通过视觉的模态,我们可以立即确定许多显著的关于他人的事实和特征,包括他们的位置、身份、
大致的年龄、注意力的焦点、脸部表情、姿势、手势和一般的活动。这些视觉线索影响到了会话的内容和进程,并提供了一些上下文相关的信息,这些信息与言语不
同,但与此相关,例如,一个手势或面部表情可能是一个关键的信号,一个注视的角度可能可以消除在言语中“这个”或者“在那边”的指带不明。换言之,在人与
人的交互中,视觉和言语是联合表达,相互补充的通道。正如语音自动识别是试图构造能够感知人们交流的文字方面的机器,那么计算机视觉技术是用来构造能够
“观察人”并自动感知相关视觉信息的机器。
计算机视觉是一门试图通过图像处理或视频处理而使计算机具备“看”的能力的计算学科。通
过理解图像形成的几何和辐射线测定,接受器(相机)的属性和物理世界的属性,就有可能(至少在某些情况下)从图像中推断出关于事物的有用信息,例如一块织
物的颜色、一圈染了色的痕迹的宽度、火星上一个移动机器人面前的障碍物的大小、监防系统中一张人脸的身份、海底植物的类型或者是MRI扫描图中的肿瘤位
置。计算机视觉研究的就是如何能健壮、有效地完成这类的任务。最初计算机视觉被看作是人工智能的一个子方向,现在已成为一个活跃的研究领域并长达40年 了。
传统上,计算机视觉研究是被一些主要的应用领域所推动的,例如生物视觉建模、机器人导航
和操作、监防、医疗图像以及各种检查、检测和识别任务。近年来,涌现了多模态和感知交互,推动了一大批关于机器视觉的研究。这些努力的重心大多是集成多种
感知模态(例如计算机视觉,语音和声音处理,触觉的输入/输出)到用户接口。尤其对于计算机视觉技术,主要的目标是在人机交互中采用视觉作为有效的输入模
态。这种基于视频的传感是被动的、无插入的,因为它不需要与用户的交互或任何有特殊用途的装置;传感器也能够被用于视频会议和其他成像用途。这种技术在基
于视觉的交互领域中具有良好的应用前景,例如游戏、生物测定学和准入,还有一般的多态接口,能将视觉信息和其他的语音、语言技术,触觉以及用户建模等相结合。
这种关于人的视觉信息的获取,已经通向了计算机视觉中大量的研究领域,着重于建模,识别
和解释人的行为。如果可靠且健壮地发放了,这种视觉技术可以支持交互系统中的一系列的功能,主要通过传递相关的用户视觉信息,例如身份、位置和动作,从而
提供关键的上下文信息。为了能充分地支持交互中的视觉部分,需要提出几个任务:
人脸检测和定位:场景中有多少人,他们在哪里?
人脸识别:他是谁?
头和脸部的跟踪:用户的头部在哪里,脸部的位置和方向是什么?
脸部表情分析:用户在微笑,大笑,皱眉,说话还是困乏?
视听语音识别:使用语音识别以及伴随视话(lip-reading)和face-reading,判断用户说什么?
眼睛注视跟踪:用户的眼睛朝哪里看?
身体跟踪:用户的身体在何处?关节处(articulation)是什么?
手跟踪:用户的手在哪里?是2维的还是3维的?特别地,手的结构是怎样的?
步态识别:这是谁的走路/跑步风格?
姿势、手势和活动识别:这个人在做什么?
这些任务都非常困难,从一个摄像机拍得图像(有时或者是多相机从不同的视角)开始,这项
工作典型情况下至少包括每秒30次的240*320个像素(每像素24比特)。我们试图很快地使这些数据变得有意义。与语音识别问题相比较,语音识别是从
一个一维的,时间序列信号开始,然后尝试将其分段并分类成相对少数目的已知类别(音素或词)。计算机视觉事实上是一堆子问题的集合,这些子问题彼此间很少
有共同点,且都非常复杂。
基于视觉的接口任务
至今,计算机视觉技术应用到人机交互中已取得了显著的成功,并在其它领域中也显示其前
景。人脸检测和人脸识别获得了最多的关注,也取得了最多的进展。第一批用于人脸识别的计算机程序出现在60年代末和70年代初,但直到90年代初,计算机
运算才足够快,以支持这些实时任务。人脸识别的问题产生了许多基于特征位置、人脸形状、人脸纹理以及它们间组合的计算模型,包括主成分分析、线性判别式分
析、Gabor小波网络和.Active Appearance
Model(AAM).许多公司,例如Identix,Viisage Technology和Cognitec
System,正在为出入、安全和监防等应用开发和出售人脸识别技术。这些系统已经被部署到公共场所,例如机场、城市广场以及私人的出入受限的环境。要想对人脸识别研究有一个全面的认识,见[12]。
人脸检测技术——在一个场景中从不同的范围和方向检测所有的脸——在近年来伴随着实时统
计学习方法已经有了显著的发展。头部和脸部跟踪在一些强约束力的情况下运行得很好,例如,当在研究对象的脸上作标记时。但是,在一般环境下,脸部姿势和脸
部特征位置的跟踪依然是一个难题。脸部表情分析也同样是,通常它是依据准确的脸部特征跟踪作为输入的。现在已经存在一些有前景的能够识别一定范围内的脸部
特征的原型系统,但是它们在性能和鲁棒性上仍然有局限性。
眼睛注视跟踪(eye-gaze
tracking)已经商业化多年,主要用于残疾的计算机用户和科学实验。这些系统采用主动式传感,向用户的眼睛发送一个红外灯源作为一个基准方向,但严格限制了头部的活动。以现在的形式,这些系统是不适合通用的多模态用户接口的。
为了确定一个人的位置或者为头部和手部的运动建立一个基准坐标框架,在视频流中跟踪身体
是非常有用的。早期的系统例如Pfinder,通过明晰静态背景模型,产生了一个身体轮廓的表示,且标识了头部和手部的可能位置。一些研究者使用了更为详
细、关节运动更为复杂的动态身体模型,尽管将图像数据匹配到这些模型中是复杂而又慢的。虽然在动画制作中广泛使用了动作捕捉系统来捕捉身体的精确动作,但
需要用户穿上特制的衣服或者一些接受传感器和标记物,这样就使得这种方法无法适用于通用的多模态接口。
当环境被控制(例如,固定的照明条件、相机位置和背景)且手没有重叠时,二维和三维的手
部位置跟踪并不困难,关注皮肤的颜色是典型的方法。然而,普通人的行为,手常常是隐藏的(在口袋中,放在头后)或是被另一个手臂、手所遮挡。在这些情况
下,手部跟踪就变得困难且需要基于人类运动的预测。一个更困难的问题是跟踪完整的手部关节——由手结构定义(23个手腕DOF,6个位置和方向DOF)的 29个自由度。Wu和Huang提供了一个对手跟踪和手势识别的概述。
对人身体及其组成部分的定位、识别和跟踪只是交互的第一步,此外需要识别行为。感兴趣的
行为可能有结构化的、分离的手势,连续的人类自然手势或者由一系列时间范围定义的行为(例如,离开房间,在桌子上吃饭)。手势识别可以作为一个直接的模式
识别问题来实现,它试图匹配身体参数的某个序列,或者是一个概率系统用来推理基于统计定义的姿势模型。这个系统必须要能区分偶然的人类动作,有目的的操作
物体的动作和那些用于交流(有或无意识的)的手势。语言和手势间的关系是很复杂的,能使通用的且上下文无关的姿势识别自动化是一个长期的目标。
虽然在某些情况中可以使用简单的状态空间模型,但在建模和识别序列姿势时通常采用统计模
型。由于统计模型在语音识别领域中的成功使用,隐马尔可夫模型(HMM)已经被广泛地用于建模和识别姿势。一个早期的例子是一个识别系统,能够识别一定数
量的由Starner和Pentland开发的美国手语。现在已有一些源于基本HMM方法的变形,用于更好地匹配视觉中更为广泛的特征和模型。因为许多手
势包括多个组成部分,例如手部动作的弧线和姿势,序列信号比语音识别中的更复杂。贝叶斯网络在姿势识别中也显示其前景。
基于视觉的接口技术进展
尽管在一些个别应用中取得了成功,但纵使在几十年的研究之后,计算机视觉还没有在商业上
被广泛使用。几种趋势似乎表明了这种情形即将会发生改变。硬件界的摩尔定律的发展,相机技术的进步,数码视频安装的快速增长以及软件工具的可获取性(例如
intel的OpenCV
libraray)使视觉系统能够变得小巧、灵活和可支付。近年来,美国政府已经投资了一些人脸识别评估项目:最初为1993年到1997年的人脸识别技 术(FERET)项目,最近为2000年到2002年的人脸识别vendor测试(FRVT)。这些项目提供了对用于研究和商业的人脸识别系统的性能评 估。FRVT 2002全面地测试了10个商业系统,收集了一个非常大的数据集的性能统计:37437个人的121589张人脸图像,通过多维(在室内或室外,男性或女
性,年轻的或年长的)表示其性能特征。图3显示了最佳系统对正面人脸图像的5项分类的人脸检验结果。
最近几年,DARPA资助了用于远距离识别人和视频监防的大型工程。正在进行中的远距离
人物身份(HumanID)项目将使用多模态融合技术,包括注视识别,即在很长的范围内(25-100英寸)识别人物身份。视频监防和监视(VSAM)项
目试图为未来的监防应用开发对感兴趣的活动的识别系统。国家科学基金已经给基于视觉接口技术的相关领域中的一些信息技术研究(ITR)奖励了津贴。工业界 中公司里(例如微软,IBM和英特尔)的研发实验室在这些领域中做了很多的努力,同样的在工业界中开办了公司,例如个人机器人和娱乐。
近年来,随着许多公司提供人脸识别技术(和人脸检测、人脸跟踪),包括3D方法(例 如,Geometrix,A4Vision和3Dbiometrics,见Jain和Ross关于包括计算机视觉和其他模态的生物测定的详细描述),生物
测定学市场有了显著地扩大。一些研究团体和公司已开发了人脸跟踪技术,尤其是用于计算机图形市场(游戏和特效)。
简单的视觉技术有效地用于交互环境的一个不错的例子是MIT媒体实验室的幼儿室工程。幼
儿室为孩子提供了一个交互的,叙述性的剧情空间。用计算机视觉来识别用户的位置和他们的活动可以帮助给参与者传递一种强制性的交互体验。现在已经有许多其
他的由大学和研究实验室开发的强制性原型系统,其中有些处于步入市场的初期阶段。
除了适合生物测定市场的人脸识别技术外,几乎很少有成熟的计算机视觉产品或技术以支持与用户的交互。然而,有大量且数量递增的研究项目和这类原型系统。为了从实验室走向真实世界,必须说明几个基本问题:
鲁棒性:大多数视觉技术是脆弱,缺乏鲁棒性的,照明和相机位置的微小变化可能会导致系统出错。系统需要在各种条件下工作,且能适度地、快速地从错误中恢复。
速度:对于大多数计算机视觉技术,在全面和快速交互两者间都采取了实际折衷。视频数据太多了,以至于无法实时地做复杂处理。我们需要更好的算法、更快的硬件设备和更灵巧的方法来决策需要计算什么,可以忽略什么。(提供了已处理的图像流的数码相机能够有很大的帮助)
初始化:许多技术在得到了初始模型后,跟踪效果都很好,但是初始化步骤往往很慢且需要用户参与。系统必须能快速和透明地进行初始化。
用性:对于开发系统的人来说(花费了许多时间研究复杂难点)视觉技术的示范使用能工作地很好,但对于那些没有经过“系统训练”的新手却很困难。这些系统需
要适应用户,处理无法预期的用户行为。此外,它们需要提供简单的纠错和处理错误解释机制以及能提供反馈给用户,以避免预料之外的灾难性后果。
上下文集成:一个基于视觉的交互技术本身不是最终的结果,而是一个更庞大的系统中的组成部分。手势和活动需要放在合适的应用过程中加以理解,而不是孤立的行为。从长期来看,这需要在各种应用的上下文关系中深刻地理解人类行为。
前三个问题已经在日常的研究实验室和全球的产品研发组织得到了关注,使用性和上下文集成很少被考虑,但是随着更多的应用开发,这两个问题将会提到研究日程的前面。
计算机视觉是一个非常困难的问题,在经过几十年的研究及几个主要应用的推动后依然不能解
决通用情形。但是,在过去的十几年里,人们对于相机的回转使用以及用计算机视觉来“看人”的兴趣提升,即检测和识别人脸,跟踪头部、脸部、手部和身体,分
析脸部表情和身体动作,识别手势。在构造实时、健壮的视觉技术上取得了重要的进展,部分是因为摩尔定律驱动的硬件性能的极大提高。一些子问题(例如,人脸
检测和人脸识别)已经获得了显著的商业成功,但是其他部分(例如手势识别)还没有在商业上找到一个大的位置。所有这些领域,仍然存在重要的速度和鲁棒性问
题,因为快速的方法总是脆弱的,而依据原理的全面的方法又是非常慢的。与语音识别技术相比较,语音技术已经商业化多年,且稳步前进几十年,计算机视觉技术
HCI依旧处于“石器时代”。
然而,有许多理由可以对未来的计算机视觉接口技术充满乐观。个人组件技术在过去的几十年
发展迅速,一些领域趋于商业化,而其他的也应该很快跟上。计算机视觉的基本研究正继续发展,新的想法将很快应用到基于视觉的交互技术中去。现在有许多关于
这个研究领域以及与其他模态集成的会议和研讨会。人脸识别领域提供了一个很好的模型,有向的资助、共享数据、短兵相接的竞争到商业应用,这些都极大地推动
了技术发展水平。其他技术也可能沿着这条路走,最终,大量的研究、技术和商业应用将帮助计算机视觉技术走到多模态人机交互的前端。
本文引用地址:
已投稿到:
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。体感交互及其游戏的设计与开发--《华南理工大学》2014年硕士论文
体感交互及其游戏的设计与开发
【摘要】:随着数字化体验时代的发展,人们越来越关注趋于自然的人机交互方式。体感交互作为一种自然的人机交互方式越来越受到人们的重视,体感交互通过多种技术手段把虚拟平台与现实平台相结合,实现自然的人机交互方式。其基本原理是,首先利用计算机图形学技术,把体感传感设备采集的深度信息转化为骨骼节点数据,再把这些数据导入到虚拟现实平台上,最终在这个平台上人们可以通过肢体动作实现与三维虚拟世界的交互。体感交互技术的应用范围很广,体感游戏作为一种典型应用,便是一种以它为基础的电子游戏,体感游戏以肢体动作作为信息的输入指令,不再是过去的简单手柄按键式的处理操作模式,从而使操作更加直观,可以让玩家的反应更真实,进而给玩家带来更好的游戏体验。
本课题研究的内容主要是针对目前体感交互所出现的交互体验不好、多目标跟踪捕捉延迟和精准度不高的问题,提高基于kinect的体感交互产品的用户体验。本课题研究难点及创新点主要包括:首先,针对于体感交互产品的用户体验设计创新方法的研究,包括用户与虚拟场景的交互设计,用户界面设计,虚拟场景设计,虚拟角色设计等;其次,有效提高了体感交互式产品中多目标识别的精准度,其三,通过体感游戏的场景优化技术实现的研究,提高了游戏的可玩性和流畅性。
研究的方法及思路:首先,针对体感交互自身的特点,研究目标用户的基本需求、分析用户的任务、构架用户角色模型,以用户为中心进行体感交互设计;其次,在体感交互场景中,有时会出现多目标之间的遮挡与重叠从而导致目标数量和交互动作识别不够准确,笔者针对这一问题提出了基于kinect的多目标跟踪的目标动作精确识别的新方法:通过对kinect所捕捉到的二维图像进行遮挡判定,和对目标图像形状特征的提取,然后对目标进行空间区域划分,最后实现对每个目标的运动轨迹进行捕捉,这样就把多目标跟踪问题转化为在某段时间内每个目标信息点的线性连续问题,进而建立了多目标跟踪的运动轨迹方程,并有效地应用于体感游戏的设计开发。最后,基于前面的研究,本文对体感交互设计和技术在游戏中的应用进行初步探索,开发了基于Kinect和Unity3D的体感游戏——“胜利冲顶”。
【关键词】:
【学位授予单位】:华南理工大学【学位级别】:硕士【学位授予年份】:2014【分类号】:TP317【目录】:
摘要5-6Abstract6-11第一章 绪论11-16 1.1 研究背景11-12 1.2 国内外研究的现状和应用12-13 1.3 体感交互设计研究目的和意义13
1.3.1 课题研究目的13
1.3.2 课题研究意义13 1.4 课题的研究思路13-15
1.4.1 在体感交互设计方面13-14
1.4.2 在体感交互技术方面14
1.4.3 在体感交互产品开发方的实践方面14-15 1.5 课题的研究方法15-16
1.5.1 书面资料收集15
1.5.2 电子资料收集15
1.5.3 调研法15-16第二章 体感交互的设计研究16-36 2.1 体感交互的用户体验设计16-26
2.1.1 体感游戏用户研究17-20
2.1.2 人物角色分析20-22
2.1.3 体感游戏的框架和体验流程设计22-25
2.1.4 体感交互的用户情感体验设计25-26 2.2 体感交互式产品的用户界面设计26-31 2.3 体感交互虚拟场景中的角色设计31-35
2.3.1 角色的夸张与变形31-33
2.3.2 角色的再造性想象33
2.3.3 角色的简化33-35 2.4 体感的虚拟场景设计研究35-36第三章 体感交互技术的研究36-45 3.1 体感交互的输入设备 kinect36-37 3.2 kinect 景深图像处理方法37-38 3.3 多目标动作跟踪的研究38-45
3.3.1 对 kinect 所获得的图像进行分析39-40
3.3.1.2 图像形状特征分析39-40
3.3.1.3 目标的空间区域划分,对跟踪的目标进行标记40
3.3.2 建立多目标跟踪的运动轨迹方程40-42
3.3.2.1 建立线性的运动模型40-41
3.3.2.2 建立观测线性模型41
3.3.2.3 建立多目标运动轨迹模型41-42
3.3.3 多目标运动轨迹模型在体感游戏中的实验与应用42-43
3.3.4. 本节小结43-45第四章 体感游戏胜利冲顶的制作45-67 4.1 基于 Kinect 的体感游戏发展趋势45 4.2 确定游戏的开发工具45-46 4.3 角色动画系统制作46-48
4.3.1 角色动画的导入和调用46-47
4.3.2 补间动画 iTween 的使用47-48 4.4 角色模型导入 Unity 技巧48
4.4.1 轴向偏转设置48
4.4.2 材质问题48 4.5 场景优化48-52
4.5.1 在 Unity 中制作 Lightmap49
4.5.2 在 Unity 中使用 LOD49-50
4.5.3 Occlusion Culling 设置50-52 4.6 特效的设计与实现52-54 4.7 顶球动作的识别54-59 4.8 Unity3d 和 Kinect 数据连接59-65 4.9 体感游戏的测试65-67第五章 结论与展望67-69 5.1 结论和贡献67 5.2 研究的局限67-68 5.3 工作展望68-69参考文献69-72致谢72-73攻读硕士学位期间取得的研究成果73-75附件75
欢迎:、、)
支持CAJ、PDF文件格式
【参考文献】
中国期刊全文数据库
韩春雷;陈赤联;宋明;杨利;;[J];电子科技;2012年04期
丁俊武;杨东涛;曹亚东;王林;;[J];工程设计学报;2010年01期
吴斌;朱洪岩;肖心通;薛婷;;[J];光电子.激光;2011年08期
车力军;孙峰;;[J];电信技术;2011年11期
苏连成;王东卫;;[J];燕山大学学报;2012年05期
吕南湖;;[J];美术教育研究;2012年22期
胡颖群;;[J];甘肃科技纵横;2013年07期
李红波;丁林建;冉光勇;;[J];数字通信;2012年04期
王先华;;[J];艺术与设计(理论);2008年06期
中国博士学位论文全文数据库
郑杨硕;[D];武汉理工大学;2013年
【共引文献】
中国期刊全文数据库
宋春艳;;[J];安徽科技学院学报;2008年04期
李婷;;[J];北京电影学院学报;2008年01期
王长生;;[J];北京体育大学学报;2009年01期
汪小波;;[J];北京体育大学学报;2011年07期
李小庆;王果胜;;[J];北京教育(高教);2012年03期
岳金星;于楠楠;;[J];北京理工大学学报(社会科学版);2008年05期
孙东阳;;[J];包装工程;2010年08期
张婕妤;干静;;[J];包装工程;2011年02期
刘玲玲;黄贵明;;[J];包装工程;2011年16期
孟亚;曹巨江;李双玲;;[J];包装工程;2012年04期
中国重要会议论文全文数据库
郭芝叶;;[A];第二届中国科技哲学及交叉学科研究生论坛论文集(硕士卷)[C];2008年
潘学丰;孟子厚;;[A];运输噪声的预测与控制——2009全国环境声学学术会议论文集[C];2009年
尤来菊;;[A];第8届全国运动心理学学术会议论文汇编[C];2006年
周晶;;[A];中国创意设计年鉴论文集2012[C];2013年
刘圣阳;张剑;;[A];第九届全国运动心理学学术会议论文集[C];2010年
中国博士学位论文全文数据库
杨玲;[D];华中科技大学;2010年
李静;[D];西南大学;2011年
顾本柏;[D];西南大学;2011年
欧阳忠明;[D];华东师范大学;2011年
阮氏黎心;[D];华东师范大学;2011年
蔡心交;[D];华东师范大学;2011年
崔智英;[D];复旦大学;2011年
董毅;[D];复旦大学;2011年
李淑霞;[D];解放军信息工程大学;2009年
唐征征;[D];哈尔滨工业大学;2010年
中国硕士学位论文全文数据库
刘圣阳;[D];上海体育学院;2010年
陈静;[D];广西师范学院;2010年
杜兆群;[D];哈尔滨工程大学;2010年
张琳;[D];哈尔滨工程大学;2010年
朱兰兰;[D];江西师范大学;2010年
丁仪;[D];苏州大学;2010年
顾立颖;[D];华东师范大学;2010年
沐昕;[D];北京服装学院;2010年
王红奕;[D];浙江大学;2010年
刘道伦;[D];福建师范大学;2009年
【二级参考文献】
中国期刊全文数据库
王睿;阎鹏;刘红英;张广军;;[J];北京航空航天大学学报;2006年11期
阚志刚;;[J];长春理工大学学报(社会科学版);2006年06期
张家轩;王成儒;;[J];燕山大学学报;2011年02期
周美玉;[J];东华大学学报(自然科学版);2005年04期
张飞,汤佳;[J];工程设计学报;2004年03期
吴斌;薛婷;邾继贵;叶声华;;[J];光电子·激光;2006年11期
薛婷;孟欣东;张涛;;[J];光电子.激光;2010年08期
董志华;张之江;曾丹;;[J];光电子.激光;2011年01期
王崴;唐一平;任娟莉;时冰川;李培林;韩华亭;;[J];光学精密工程;2008年10期
严卫生,高磊,张礴,段培贤;[J];火力与指挥控制;2000年02期
中国博士学位论文全文数据库
汪泽英;[D];中国社会科学院研究生院;2002年
孔伟;[D];中共中央党校;2004年
海军;[D];中央美术学院;2007年
曾曦;[D];武汉理工大学;2010年
中国硕士学位论文全文数据库
宋若楠;[D];中央美术学院;2011年
郑杨硕;[D];武汉理工大学;2007年
黄飞;[D];湖南大学;2008年
陈慧姝;[D];天津美术学院;2008年
陈烨;[D];重庆大学;2010年
赵亮;[D];河南师范大学;2012年
【相似文献】
中国期刊全文数据库
;[J];电子科技;2003年20期
game猴子;[J];中国电子与网络出版;2004年10期
边晓春;[J];电子出版;1995年07期
程化;;[J];软件世界;1998年09期
李波;;[J];软件世界;1998年12期
菜鸟;;[J];软件世界;1998年10期
善良的大灰狼;[J];电脑校园;2004年06期
小承;[J];电脑;2001年01期
GK;[J];电脑;2001年04期
子竹;[J];电脑爱好者;2000年11期
中国重要会议论文全文数据库
杨佳勇;;[A];中华护理学会2005年“医院管理年”论坛论文汇编[C];2005年
刘泓;;[A];全球信息化时代的华人传播研究:力量汇聚与学术创新——2003中国传播学论坛暨CAC/CCA中华传播学术研讨会论文集(下册)[C];2004年
黄行福;;[A];江西省抚州市社科联论文集()教育文化类[C];2003年
赵桐;王亚君;;[A];创新沈阳文集(B)[C];2009年
中国重要报纸全文数据库
实习生 严锋林;[N];科技日报;2005年
恬恬;[N];国际商报;2006年
魏衍亮;[N];中国知识产权报;2006年
夏秋虹;[N];中国财经报;2004年
堂吉伟德;[N];新华每日电讯;2011年
唐伟;[N];中国社会报;2011年
尹美兰;[N];中国计算机报;2003年
黄丹 通讯员
张锋;[N];国际商报;2012年
;[N];文汇报;2003年
木子;[N];国际商报;2006年
中国博士学位论文全文数据库
陈益;[D];南京师范大学;2003年
中国硕士学位论文全文数据库
苗明;[D];重庆大学;2008年
方正;[D];中国科学技术大学;2009年
付孟琪;[D];云南艺术学院;2010年
曾明瑛;[D];电子科技大学;2011年
冷若冰;[D];山东大学;2007年
赵永乐;[D];西南师范大学;2005年
孙钦泉;[D];山东师范大学;2008年
刘晓华;[D];北京印刷学院;2005年
高烈波;[D];广西民族大学;2009年
刘赛;[D];兰州大学;2011年
&快捷付款方式
&订购知网充值卡
400-819-9993
《中国学术期刊(光盘版)》电子杂志社有限公司
同方知网数字出版技术股份有限公司
地址:北京清华大学 84-48信箱 大众知识服务
出版物经营许可证 新出发京批字第直0595号
订购热线:400-819-82499
服务热线:010--
在线咨询:
传真:010-
京公网安备75号很多人可能都做过摄像头方面的开发,最近我也是在看增强现实(Augmented Reality 简称AR)关于摄像头的代码,一般都是在PC端来做,开启程序之后,摄像头会捕捉画面,然后将摄像头捕捉到的画面实时地显示在显示终端。在AR上开发摄像头的捕捉基本上都是通过WebCamTexture类的运用,使用WebCamTexture我们可以很方便地使用摄像头捕捉到的数据实现对象的动态贴图。但是在移动智能终端(以我自己的android手机为例)涉及后置摄像的获取操作,材质的实时更新。下面讲解一个demo实例,一步步手把手教你,相信看完之后你一定有所收获。1.创建一个新场景,然后在场景中添加一个GUITexture,添加完成之后重命名myCameraTexture(看你自己的爱好,不喜欢重命名的也行)2.创建一个CameraScript.cs文件,然后开始在这个类文件中写代码。。。using UnityEusing System.Cusing System.IO;using S
public class CameraScript : MonoBehaviour {
// Use this for initialization
public GUITexture myCameraT
private WebCamTexture webCameraT
void Start () {
//检查当前设备有多少个可以使用的摄像机
for (int cameraIndex = 0; cameraIndex & WebCamTexture.devices.LcameraIndex++ )
//获取移动手机的后置摄像机
if(!WebCamTexture.devices[cameraIndex].isFrontFacing){
//这个你们可以自己测试一下,我没有装安卓虚拟机,每次都要导入到手机之后才能测试
你们可以自己试试
//webCameraTexture = new WebCamTexture(cameraIndex, Screen.width, Screen.height);
webCameraTexture = new WebCamTexture(cameraIndex, 200, 200);
//本地坐标变换
myCameraTesture.transform.localScale = new Vector3(-1, -1, 1);
myCameraTesture.texture = webCameraT
//开始摄像
webCameraTexture.Play();
// Update is called once per frame
void Update () {
public void ShowCamera()
myCameraTesture.guiTexture.enabled =
webCameraTexture.Play();
public void HideCamera()
myCameraTesture.guiTexture.enabled =
webCameraTexture.Play();
void OnGUI()
//添加一个按钮来控制摄像机的开和关
if(GUI.Button(new Rect(0,0,100,100),&ON/OFF&)){
if (webCameraTexture.isPlaying)
this.HideCamera();
this.ShowCamera();
if(GUI.Button(new Rect(0,110,100,100),&Quit&)){
//退出系统
Application.Quit();
}}3.将CameraScript.cs绑定到Main Camera上,因为这个类定义的有个公共变量,所以直接拖动myCameraTexture到右边属性面板的Public变量上即可3.发布设置,这里不再多说,因为之前有一篇文章已经很详细的讲解了Untiy发布安卓的步骤,而且将的也比较详细,如果还有不懂的可以看看,这里主要说一点, 就是在player setting中Resolution and Presentation点开之后有个 Default
Orientation
我选择的是Landscape Right ,你们可以自己试试选择left。。。是什么情况4.然后将发布完成的apk文件安装到自己的安卓手机测试.............一切如你所愿,。。。这是移动智能终端AR最基本的视频获取。代码虽然简单但是值得你学习...Unity3D教程手册(unitymanual) 
 文章为作者独立观点,不代表大不六文章网立场
unitymanual游戏蛮牛 ---
中国最大的手机游戏开发者技术社区! 热门文章最新文章unitymanual游戏蛮牛 ---
中国最大的手机游戏开发者技术社区! &&&&违法和不良信息举报电话:183-
举报邮箱:
Copyright(C)2016 大不六文章网
京公网安备78

我要回帖

更多关于 人机交互设计 的文章

 

随机推荐