OpenXR和Unity开发者可以在v35 SDK版本使用Spatial Anchors,而它将在以后支持其他开发平台。这个实验性API允许你开始在Quest设备构建和测试基于Spatial Anchors的体验。团队表示,未来将提供Spatial Anchors的Production版本,届时你将能够在Oculus Store或App Lab向用户提供相关体验。 2. Voice SDK Voice SDK是一组自然语言功...
这个实验性API允许你开始在Quest设备构建和测试基于Spatial Anchors的体验。团队表示,未来将提供Spatial Anchors的Production版本,届时你将能够在Oculus Store或App Lab向用户提供相关体验。 2. Voice SDK Voice SDK是一组自然语言功能,可允许开发者创建基于语音的导航体验和新的语音驱动游戏。利用Voice SDK,你可以创建语音...
这个实验性API允许你开始在Quest设备构建和测试基于Spatial Anchors的体验。团队表示,未来将提供Spatial Anchors的Production版本,届时你将能够在OculusStore或App Lab向用户提供相关体验。 2. Voice SDK Voice SDK是一组自然语言功能,可允许开发者创建基于语音的导航体验和新的语音驱动游戏。利用Voice SDK,你可以创建语音...
这个实验性API允许你开始在Quest设备构建和测试基于Spatial Anchors的体验。团队表示,未来将提供Spatial Anchors的Production版本,届时你将能够在Oculus Store或App Lab向用户提供相关体验。 2. Voice SDK Voice SDK是一组自然语言功能,可允许开发者创建基于语音的导航体验和新的语音驱动游戏。利用Voice SDK,你可以创建语音...
First Hand:展示了Interaction SDK的使用和裸手追踪。 Unity-Movement:展示Meta Quest Pro身体、眼睛和面部追踪功能的软件包 Whisperer:展示了Voice SDK的使用。项目包含App Lab的《Whisperer》演示的源代码。 Unity Shared Spatial Anchors:展示了Shared Spatial Anchors的创建、保存、加载和共享。
First Hand:展示了Interaction SDK的使用和裸手追踪。 Unity-Movement:展示Meta Quest Pro身体、眼睛和面部追踪功能的软件包 Whisperer:展示了Voice SDK的使用。项目包含App Lab的《Whisperer》演示的源代码。 Unity Shared Spatial Anchors:展示了Shared Spatial Anchors的创建、保存、加载和共享。
First Hand:展示了Interaction SDK的使用和裸手追踪。 Unity-Movement:展示Meta Quest Pro身体、眼睛和面部追踪功能的软件包 Whisperer:展示了Voice SDK的使用。项目包含App Lab的《Whisperer》演示的源代码。 Unity Shared Spatial Anchors:展示了Shared Spatial Anchors的创建、保存、加载和共享。
Voice SDK从v34 SDK版本开始向Unity开发者提供,并在以后支持其他开发平台。这个实验性API允许你在Quest2构建和测试支持语音的体验。Voice SDK的production版本将于今年年底与大家见面,届时你就能够向用户提供相关的体验。 下载v34 SDK请访问这个页面,开发者文档则请访问这个页面。
据UploadVR报道,Quest开发者已能将Meta语音识别(Voice SDK)功能添加至Oculus Store和App Lab应用之中,并可尝试“实验性”MR空间锚点(Spatial Anchors)功能。 Connect 2021期间,Meta发布了语音识别及MR空间锚点功能,以作为Oculus SDK v35 版本更新内容。 Voice SDK由Meta在2015年收购的语音接口公司Wit.ai开发,由于Wit采...
Yavin讲装机创建的收藏夹Yavin讲装机内容:【Meta Quest3 开发】Voice SDK+WitAI 语音交互在混合现实里聆听鸟语花香,如果您对当前收藏夹内容感兴趣点击“收藏”可转入个人收藏夹方便浏览