• خانه
  • فروشگاه
  • وبلاگ
  • گالری
  • درباره ما
  • تماس باما
با ما در ارتباط باشید.
reformh@yahoo.com
عضویتورود
مشقکمشقک
  • خانه
  • فروشگاه
  • وبلاگ
  • گالری
  • درباره ما
  • تماس باما

آینده پژوهی

  • خانه
  • بلاگ
  • آینده پژوهی
  • واقعیت توسعه یافته مقیاس پذیر: دستور کار تحقیقاتی آینده

واقعیت توسعه یافته مقیاس پذیر: دستور کار تحقیقاتی آینده

  • ارسال شده توسط ادمین 1
  • دسته بندی آینده پژوهی
  • تاریخ خرداد 3, 1401
  • نظرات 0 نظر

واقعیت توسعه یافته مقیاس پذیر: دستور کار تحقیقاتی آینده

توسط

ورا ماری ممشایمر

*و

آخیم ایبرت

آزمایشگاه تعامل انسان با کامپیوتر، گروه علوم کامپیوتر، دانشگاه فنی کایزرسلاترن، 67663 کایزرسلاترن، آلمان
*
نویسنده ای که مسئول است باید ذکر شود.
ویراستار آکادمیک: کارسون کی لیونگ
Big Data Cogn. محاسبه کنید. 2022 ، 6 (1)، 12; https://doi.org/10.3390/bdcc6010012
دریافت: 17 دسامبر 2021 / بازبینی شده: 20 ژانویه 2022 / پذیرش: 21 ژانویه 2022 / تاریخ انتشار: 26 ژانویه 2022
(این مقاله متعلق به موضوع ویژه واقعیت مجازی، واقعیت افزوده و تعامل انسان و کامپیوتر است )
PDF را دانلود کنید

ارقام را مرور کنید

صادرات استناد

خلاصه

تحقیقات گسترده پتانسیل کاربردهای واقعیت افزوده، ترکیبی و مجازی را مشخص کرده است. با این حال، توجه کمی به پیشرفت‌های مقیاس‌پذیری که پذیرش عملی را تقویت می‌کنند، شده است. در این مقاله، مفهوم واقعیت توسعه‌یافته مقیاس‌پذیر (XRاس) یعنی فضاهایی که بین نمایشگرهای مختلف و درجات مجازی بودن که می توانند توسط کاربران متعدد و احتمالاً توزیع شده وارد شوند. توسعه چنین XRاسفضاها به چندین زمینه تحقیقاتی مربوط می شود. برای ارائه تعامل دوسویه و حفظ سازگاری با محیط واقعی، بازسازی‌های مجازی صحنه‌های فیزیکی باید به صورت معنایی تقسیم شده و به صورت پویا تطبیق داده شوند. علاوه بر این، تکنیک‌های تعامل مقیاس‌پذیر برای انتخاب، دستکاری، و ناوبری و همچنین ارائه تثبیت‌شده حاشیه‌نویسی‌های دوبعدی در فضای سه‌بعدی مورد نیاز است تا به کاربران این امکان را بدهد که به‌طور مستقیم بین نمایشگرهای دستی و روی سر جابجا شوند. تنظیمات مشارکتی باید کنترل دسترسی و نشانه های آگاهی را که مکان ها و اقدامات همکاران را نشان می دهد، ادغام کنند. در حالی که بسیاری از این موضوعات توسط تحقیقات قبلی مورد بررسی قرار گرفته بودند، تعداد بسیار کمی ادغام آنها را برای افزایش مقیاس پذیری در نظر گرفته اند. با پرداختن به این شکاف، تحقیقات قبلی مرتبط را مرور می‌کنیم و موانع فعلی توسعه XR را فهرست می‌کنیماسفضاها، و وابستگی های بین آنها را برجسته کنید.
کلمات کلیدی: واقعیت توسعه یافته (XR) ; واقعیت افزوده (AR) ؛ واقعیت ترکیبی (MR) ؛ واقعیت مجازی (VR) ؛ نمایشگرهای دستی (HHD) ؛ نمایشگرهای روی سر (HMDs) ؛ مقیاس پذیری ؛ کار تعاونی با پشتیبانی کامپیوتر (CSCW)

1. معرفی

استفاده از انواع مختلف فناوری‌های واقعیت توسعه‌یافته (XR) برای ورود به صحنه‌های واقعیت افزوده، مختلط یا واقعیت مجازی برای حوزه‌های مختلف کاربرد حمایتی در نظر گرفته شده است. به عنوان مثال، کاربران می‌توانند اطلاعات متنی را بر حسب تقاضا در طول وظایف آموزشی یا تعمیر و نگهداری دریافت کنند، و فرآیندهای توسعه محصول می‌توانند از تغییرات سریع و ارزان بهره ببرند، زیرا تقویت‌های مجازی بر این اساس تطبیق داده می‌شوند. علاوه بر این، اتصال چند نمایشگر روی سر یا دستی در یک شبکه، پتانسیل زیادی برای فراهم کردن دسترسی‌های سفارشی‌شده به یک فضای مشترک برای همکاران هم‌محل و همچنین توزیع‌شده دارد. با این حال، تا کنون اکثر برنامه های XR به موارد یکبار مصرف، فناوری خاص و دو کاربر محدود شده اند.
به دنبال کاهش این تلاش ها، مفهوم فضاهای XR مقیاس پذیر (XRاس) که به نظر ما برای کاربردهای مختلف مفید است. به عنوان مثال، توسعه محصول می‌تواند توسط سیستم‌هایی که از نمونه‌های اولیه مجازی به ترکیبی مقیاس‌بندی می‌شوند، و در نهایت محصولات فیزیکی با حاشیه‌نویسی منفرد، پشتیبانی شود. به طور مشابه، مجازی بودن می تواند با توجه به مهارت های ایجاد شده در سیستم های آموزشی یا پیشرفت در سایت های ساخت و ساز کاهش یابد. علاوه بر این، تیم‌هایی که در واقعیت افزوده یا ترکیبی کار می‌کنند، می‌توانند توسط همکاران غایب که وارد بازسازی مجازی صحنه خود می‌شوند، ملحق شوند. بسته به وظایف و اولویت‌های فردی، همکاران می‌توانند از این طریق دارای نمایشگرهای روی سر یا دستی باشند.
در حالی که تحقیقات قبلی به طور جداگانه به سه موضوعی که ما برای توسعه XR حیاتی می دانیم پرداخته استاسفضاها (به عنوان مثال، ویژگی‌های پشتیبانی از همکاری ، تجسم‌های سازگار و در دسترس ، و تکنیک‌های تعامل بصری )، ما بر روی یکپارچه‌سازی آنها برای افزایش مقیاس‌پذیری تمرکز می‌کنیم. برای این منظور، ما آخرین تحقیقات در زمینه‌های مرتبط را مرور می‌کنیم و یک دستور کار تحقیقاتی آینده را پیشنهاد می‌کنیم که هم موضوعات تحقیقاتی باقی‌مانده و هم تازه‌بافتاده را فهرست می‌کند.

2. پیشینه و اصطلاحات

2.1. واقعیت افزوده، ترکیبی و مجازی

در سال 1994، میلگرام و کیشینو [ 1 ] طبقه‌بندی فناوری‌هایی را معرفی کردند که اجزای مجازی را با توجه به درجه مجازی بودن آنها یکپارچه می‌کند، که امروزه به نام پیوسته واقعیت-مجازی شناخته می‌شود [ 2 ]. برنامه های واقعیت مجازی ( VR ) در انتهای سمت راست زنجیره قرار دارند. در چنین محیط های کاملاً رایانه ای، کاربران سطوح بالایی از غوطه وری را تجربه می کنند. با حرکت در امتداد پیوسته به سمت چپ، درجه مجازی کاهش می یابد. همانطور که در شکل 1 نشان داده شده است، اصطلاح واقعیت ترکیبی ( MR ) هر دو تقویت صحنه های مجازی با محتوای واقعی را در بر می گیرد.مجازی‌سازی افزوده، AV ) و همچنین تقویت صحنه‌های واقعی با محتوای مجازی ( واقعیت افزوده، AR ). در حالی که پیوستار AR و AV را برابر نشان می دهد، میزان تحقیقاتی که پس از معرفی آن منتشر شده است به طور قابل توجهی برای AR بیشتر از AV است. این سهل انگاری AV در تفسیر کلی امروزی MR نیز منعکس شده است. در حال حاضر، MR با فضاهایی مرتبط است که اشیاء مجازی را در دنیای فیزیکی جاسازی می‌کنند (یعنی روی، جلو یا پشت سطوح دنیای واقعی)، در حالی که AR در عوض به صحنه‌های دنیای واقعی اشاره می‌کند که با پوشش‌های مجازی خالص تقویت شده‌اند. از محدودیت های فیزیکی صحنه
Bdcc 06 00012 g001 550
شکل 1. پیوستار واقعیت-مجازیتی، با مجوز [ 2 ] بازتولید شده است.
در حالی که اکثر گوشی‌های هوشمند و تبلت‌ها می‌توانند به عنوان نمایشگرهای دستی (HHD) برای ورود به فضاهای MR و VR استفاده شوند، کیفیت تجربه به شدت تحت‌تاثیر فناوری و حسگرهای گنجانده شده قرار می‌گیرد. به عنوان مثال، اسکنر LiDAR که در iPad Pro اپل [ 3 ] گنجانده شده است، اسکن صحنه را بهبود می بخشد و در نتیجه اشیاء مجازی را در دنیای واقعی جاسازی می کند. به غیر از HHD ها، کاربران ممکن است از نمایشگرهای نصب شده روی سر (HMD) استفاده کنند. برای دسترسی به صحنه‌های واقعیت مجازی، هدست‌هایی مانند HTC VIVE [ 4 ]، Oculus Rift، یا Oculus Quest [ 5 ] ممکن است استفاده شوند. HMD هایی که به کاربران اجازه ورود به صحنه های MR را می دهند عبارتند از Microsoft HoloLens [ 6 ]، Magic Leap [ 7 ] و Google Glass [ 8 ].]. علاوه بر این، انتظار می‌رود اپل در سال‌های آینده یک HMD که بازی را تغییر می‌دهد منتشر کند [ 9 ]. در حالی که برخی از این فناوری‌ها تعامل با تشخیص حرکت داخلی را فراهم می‌کنند، برخی دیگر از صفحه‌نمایش‌های لمسی، کنترل‌کننده‌های دستی خارجی یا فناوری ردیابی مانند کنترل‌کننده Leap Motion استفاده می‌کنند [ 10 ]. علاوه بر این، فناوری های مبتنی بر طرح ریزی مانند Powerwalls یا فضایی AR می توانند مورد استفاده قرار گیرند. در این مقاله، ما بر مقیاس پذیری بین HMD و HHD تمرکز می کنیم، به عنوان مثال، محیط هایی که می توان به صورت جداگانه با نمایشگرهای دو بعدی یا سه بعدی به آنها دسترسی داشت.

2.2. واقعیت توسعه یافته مقیاس پذیر (XRاس)

اخیراً، اصطلاح واقعیت توسعه یافته، و کمتر اوقات، واقعیت متقابل ( XR )، به طور فزاینده ای به عنوان یک اصطلاح چتر برای فناوری های مختلف واقع در امتداد زنجیره واقعیت-مجازی استفاده می شود [ 1 ، 2 ]. در این مقاله، ما از XR برای اشاره به کاربردهای AR، MR و VR به طور کلی استفاده می‌کنیم و HMD و HHD را توسط دستگاه‌های XR یا فناوری‌های XR خلاصه می‌کنیم .
علاوه بر این، مفهوم واقعیت توسعه‌یافته مقیاس‌پذیر ( XRاس) توصیف فضاهایی که در امتداد سه بعد مختلف نشان داده شده در شکل 2 مقیاس می شوند : ■ از درجات کم تا زیاد مجازی (یعنی از سمت چپ به سمت راست زنجیره واقعیت-مجازی [ 1 ، 2 ]). ■ بین دستگاه های مختلف (یعنی HMD و HHD). و ■ از تک کاربر تا چند همکار که ممکن است در سایت های مختلف قرار داشته باشند. در ادامه از عبارت XR استفاده می کنیماسهرگاه به مفهوم این فضاهای بسیار مقیاس پذیر اشاره کنیم.
Bdcc 06 00012 g002 550
شکل 2. واقعیت توسعه یافته مقیاس پذیر (XRاس) فضاهایی که مقیاس پذیری را بین درجات مختلف مجازی بودن، ■ دستگاه ها و ■ تعداد همکاران فراهم می کند.
در حالی که برنامه های XR موجود بیشتر به موارد یکبار مصرف، فناوری خاص و دو کاربر، XR محدود می شونداسفضاها می توانند به عنوان محیط های آموزشی یا کاری انعطاف پذیر، طولانی مدت باشند. تکنیک‌های تجسم و تعامل بسیار مقیاس‌پذیر می‌توانند خاطره‌انگیز بودن را افزایش دهند و به کاربران این امکان را می‌دهند که به طور مستقیم بین درجات مختلف مجازی بودن و دستگاه‌ها جابجا شوند و در عین حال تمرکز خود را بر روی کار واقعی حفظ کنند. برای مثال، توسعه محصول می‌تواند توسط برنامه‌هایی پشتیبانی شود که از نمونه‌های اولیه مجازی اولیه تا نمونه‌های اولیه فیزیکی که با محتویات مجازی منفرد تقویت می‌شوند، پشتیبانی می‌شوند، به عنوان مثال، درجه مجازی بودن با تکامل محصول کاهش می‌یابد. در این زمینه، زمان و هزینه ها را می توان کاهش داد زیرا اصلاح قطعات مجازی محصول سریعتر و ارزان تر از قطعات فیزیکی است. از آنجایی که فناوری های XR مختلف ممکن است برای درجات مختلف مجازی بودن و وظایف مختلف مناسب باشند، خاطره‌انگیز بودن تکنیک‌های تعامل باید تقویت شود تا کاربران از یادگیری مجدد تکنیک‌های تعامل هر زمان که به دستگاه دیگری تغییر می‌کنند جلوگیری شود. با در نظر گرفتن چندین کاربر سیستم، به هر یک از همکاران می‌توان اطلاعات مورد نیاز برای تکمیل کار را در صورت تقاضا از طریق افزایش‌های سفارشی‌شده ارائه کرد و به XR ملحق شد.اسفضا در صحنه های MR یا VR با استفاده از HMD یا HHD بسته به ترجیحات فردی آنها و تنظیمات مشترک.
یوهانسن [ 11 ] سیستم های گروه افزاری را با توجه به زمان و مکان متمایز کرد. در این مقاله، ما عمدتاً بر روی همکاری همزمان تمرکز می‌کنیم، به عنوان مثال، همکاران در همان زمان در حال تعامل هستند اما می‌توانند در یک مکان ( همکاری در محل ) یا سایت‌های مختلف ( همکاری توزیع‌شده یا از راه دور ) قرار گیرند. در این زمینه، ما از اصطلاح همکار در محل برای هر کسی که در محیط کاری واقعی قرار دارد (مثلاً محل یک کارخانه واقعی یا نمونه فیزیکی) و از اصطلاح همکار خارج از محل برای هر کسی که از یک مکان دور به جلسه می‌پیوندد استفاده می‌کنیم. تحقیقات قبلی همچنین از این همکار خارج از سایت به عنوان یک متخصص از راه دور یاد می کند . در حالی که مدتremote به این معنی است که دو همکار در سایت‌های مختلف قرار دارند، نشان نمی‌دهد کدام همکار در کدام سایت قرار دارد. با این حال، این اطلاعات در XR ارتباط بالایی دارداسفضاهایی که ممکن است فناوری‌های مختلف برای همکاران در محل در صحنه MR (یعنی محیط کاری با تقویت‌های مجازی) و همکاران خارج از سایت غوطه‌ور در صحنه واقعیت مجازی (یعنی تکرار مجازی محیط کار از جمله تقویت‌ها) استفاده شود. . از آنجایی که چنین XRاسفضاها می توانند نه تنها از همکاری مشترک، بلکه توزیع شده نیز پشتیبانی کنند، آنها پتانسیل قابل توجهی برای صرفه جویی در هزینه ها و زمان مربوط به سفر دارند.

3. به سوی واقعیت توسعه یافته مقیاس پذیر ( XRاس): موضوعات مرتبط و تحقیقات مرتبط

در حالی که XRاسفضاهایی که در بالا ذکر شد هنوز در دسترس نیستند، تحقیقات قبلی در زمینه های مختلف ممکن است به توسعه آنها کمک کند. بر اساس سه بعد (نگاه کنید به شکل 2 ) که در امتداد آن XRاسفضاها به منظور مقیاس بندی هستند، ما سه موضوع زیر را برای مرتبط بودن تعریف می کنیم: ساخت XRاسمقیاس فضاها ■ از تک کاربر تا چند همکار به ویژگی های پشتیبانی همکاری مناسب نیاز دارد. ارائه مقیاس پذیری بین درجات مختلف مجازی سازی مستلزم تجسم سازگار و قابل دسترس از تقویت مجازی و تکرار صحنه های فیزیکی است. و افزایش مقیاس پذیری بین فناوری های مختلف XR نیازمند طراحی تکنیک های تعامل به گونه ای است که به کاربران اجازه می دهد به طور مستقیم بین دستگاه ها جابجا شوند. به عنوان اولین قدم برای توسعه XRاس، این بخش یک نمای کلی از تحقیقات مرتبط در هر یک از این زمینه ها را ارائه می دهد و توضیح می دهد که در کجا نتایج تحقیقات قبلی برای ساخت XR یکپارچه شده است.اسفضاها چالش برانگیز است این بررسی به عنوان مبنایی برای تعیین دستور کار سؤالات باقی مانده و تازه مطرح شده که در بخش 4 ارائه شده است، عمل کرد .

3.1. ویژگی های پشتیبانی همکاری

بسته به پیکربندی XRاسفضا، همکاری می تواند بسیار متفاوت از همکاری حضوری و حضوری باشد. برای مثال، همکاران ممکن است نتوانند یکدیگر را ببینند یا بشنوند، که ممکن است مانع از تعامل طبیعی بین آنها شود. برای غلبه بر این موانع، تحقیقات قبلی چندین ویژگی را برای پشتیبانی از ارتباطات و هماهنگی در سناریوهای هم‌مکانی [ 12 ، 13 ] یا توزیع شده [ 14 ، 15 ، 16 ، 17 ، 18 ، 19 ، 20 ، 21 ، 22 ] با استفاده از HHDs پیشنهاد کردند. 12 ، 13 ]، HMDs [ 14 ، 15 ، 16، 17 ، 18 ، 20 ، 21 ، 22 ] یا هر دو [ 19 ، 23 ].
چنین ویژگی های پشتیبانی همکاری شامل نشانه های آگاهی است که نشان می دهد همکاران کجا هستند یا چه می کنند. برای نشان دادن همکاران غایب در فضا، تحقیقات قبلی انواع مختلفی از آواتارها را در نظر گرفت: در حالی که برخی از آواتارهای شبیه انسان استفاده می کردند [ 18 ، 20 ، 21 ، 24 ]، برخی دیگر تنها بخش هایی از همکار را با استفاده از تکرارهای مجازی دستگاه XR مربوطه تجسم کردند [ 18 ، 19 ، 25 ]، frustums [ 14 ، 21 ، 25 ] یا اشیاء مجازی بیشتر را به عنوان بازنمایی انتزاعی مشاهده کنید [ 19 ، 22 ، 25]. در حالی که بیشتر آواتارها بر اساس حرکات دست و سر ساخته شده اند، برخی از رویکردها کل بدن را ردیابی می کنند. به عنوان مثال، یو و همکاران. [ 26 ] کاربران را بر اساس سایه آنها ردیابی کردند تا آواتار مربوطه را در زمان واقعی ایجاد کنند و Ahuja و همکاران. [ 27 ] وضعیت‌های بدن را با ترکیب نماهای دوربین‌های HHD چند کاربر در یک سناریوی هم‌کم برآورد کرد. یک رویکرد ترکیبی از نمایشگرهای دو بعدی و سه بعدی توسط ایبایاشی و همکاران ارائه شد. [ 24]. همکاران می‌توانند یک رابط روی میز را لمس کنند تا به مکان‌های خاصی در یک فضای مجازی اشاره کنند، در حالی که همکار دیگری که با HMD وارد همان فضا می‌شود، می‌تواند دست‌های مجازی بزرگی را که به سمت مکان مربوطه اشاره می‌کنند و همچنین چهره کاربران روی میز را که توسط دوربین گرفته شده است، ببیند. کاربر HMD در طرف دیگر می‌توانست با لمس یک HHD که در جلوی HMD نصب شده است، به مکان‌های خاصی اشاره کند و با یک آواتار نشان داده شود که جهت بازوها و سر بر این اساس تنظیم شده است. پیومسومبون و همکاران [ 20] توجه داشته باشید که آواتارهای مشارکت کنندگان در اندازه واقعی احتمالاً باعث انسداد می شوند و ممکن است از میدان دید فراتر رود. برای این منظور، آنها یک آواتار مینیاتوری پیشنهاد کردند که نشان دهنده همکار خارج از سایت است و جهت و ژست های نگاه مربوطه را تقلید می کند. مینیاتوری از آواتار در اندازه واقعی که نشان دهنده همکار خارج از سایت است، نگاه همکار در محل را دنبال می کند در حالی که یک نشانگر حلقه در پای مینیاتور مکان آواتار در اندازه واقعی را نشان می دهد [ 20 ]. در [ 21 ]، آواتار مینیاتوری که همکار خارج از سایت را نشان می‌دهد به میدان دید همکار در محل متصل نشده بود، اما می‌توانست یک نشانه بصری (یعنی یک مشعل تقریباً در حال سوختن) برای جلب توجه همکار در محل اضافه کند. لی و همکاران [ 17] دریافت که تقویت نمای یک همکار با یک مستطیل، به تصویر کشیدن میدان دید فعلی همکار دیگر، هنگام استفاده از HMD با زوایای دید متفاوت ناموفق بود. بنابراین، اندازه مستطیل ها را با توجه به زاویه دید ارائه شده توسط دستگاه خروجی کاهش دادند. مشابه [ 14 ]، آنها ادغام فلش هایی را در نظر گرفتند که به سمت مکان همکار دیگر اشاره می کنند، زیرا در فضاهای سه بعدی بزرگ، همکاران ممکن است در پیدا کردن یکدیگر در زمانی که میدان های دید بسیار مخالف دارند، مشکل داشته باشند.
همکاری توزیع شده، به ویژه کمک از راه دور، به همکاران نیاز دارد که به اشیا یا مکان‌های موجود در فضای مشترک اشاره کنند. یک رویکرد رایج برای نشان دادن جایی که کسی به آن اشاره می کند، نمایش پرتوهایی است که از چشم کاربر [ 14 ، 28 ] یا دست [ 13 ، 16 ، 20 ، 22 ، 23 ] منشا می گیرند. به جای رندر کردن کل پرتو، De Pace و همکاران. [ 18 ] فقط دایره ای را ارائه کرد که در آن اشعه و جسم با هم برخورد می کردند. پریرا و همکاران [ 19] همکاران و اشیاء را با فلش هایلایت می کرد و با رادارهای متحرک و دیوارهای شفاف از ناوبری به سمت اهداف خاص در فضا پشتیبانی می کرد. در مورد ادغام نشانه‌ها برای حرکات دست، کارهای قبلی عمدتاً بر ردیابی دست‌های همکار خارج از سایت متمرکز بود، زیرا دست‌های همکار در محل اغلب در بازسازی فضای MR گرفته می‌شود. دوربین‌های سه‌بعدی [ 15 ] و کنترل‌کننده Leap Motion [ 14 ، 16 ، 17 ] برای گرفتن حرکات دست همکار خارج از سایت و تقویت دید همکار در محل با مش به‌دست‌آمده در زمان واقعی استفاده شدند. دیگران [ 19 ، 21 ، 22] حرکت کنترلرهای VR را برای ارائه یک نمایش انتزاعی از حرکات دست ردیابی کرد. در رویکرد ارائه شده توسط کیم و همکاران. [ 16 ]، همکار خارج از سایت می‌تواند حرکات مختلف دست را برای فعال کردن یک پرتو یا ترسیم طرح‌های مجازی در محیط مشترک انجام دهد.
سناریوهای پیچیده تر، به ویژه آنهایی که اجازه دستکاری فعال توسط چندین همکار را می دهند، به کنترل دسترسی نیاز دارند . گراندی و همکاران [ 13 ] به همکارانی که با HHD ها تعامل دارند، اجازه می دهد تا به طور همزمان یک شی را با ضرب هر ماتریس تبدیل در یکی از شی مجازی دستکاری کنند. بنابراین، پرتوهای با رنگ‌های متفاوت نشان می‌دهند که کاربر کدام شی را انتخاب کرده و نمادها نشان‌دهنده دستکاری در حال انجام هستند. برعکس، ولز و هوبن [ 12 ] به تنها یکی از همکارانی که در محل قرار داشتند اجازه دادند تا در یک زمان یک شی را دستکاری کند. در طول دستکاری، شی مربوطه برای سایر کاربران قفل شد همانطور که با یک حاشیه رنگی در اطراف صفحه نمایش HHD نشان داده شد. پریرا و همکاران [ 19] یک مشتری اصلی در نظر گرفته می شود که قرار بود مالکیت را به مشتریان دیگر بدهد.

3.2. تجسم های سازگار و در دسترس

XRاسمقیاس بندی فضاها بین درجات مختلف مجازی بودن (یعنی از سمت چپ به سمت راست پیوستار واقعیت-مجازی [ 1 ، 2 ] و بالعکس)، امکان افزایش دیدگاه های همکاران در محل در صحنه های MR را فراهم می کند در حالی که خارج از سایت ارائه می شود. همکاران با بازسازی مجازی محیط در محل. برای حمایت از همکاری موثر، این بازسازی باید با محیط در سایت سازگار باشد (یعنی تغییرات در محیط فیزیکی باید در صحنه مجازی تطبیق داده شود) و قابل دسترسی باشد (یعنی همکاران خارج از سایت باید بتوانند به بخش‌های خاصی اشاره کنند. در صحنه و تعامل با اشیاء مجازی).
تحقیقات قبلی رویکردهای مختلفی را دنبال کردند تا به همکاران خارج از سایت، بازسازی مجازی صحنه‌های فیزیکی را ارائه دهند. محیط در محل با استفاده از فناوری‌هایی مانند دوربین‌های 360 درجه که تصاویر [ 22 ] یا فیلم‌ها [ 17 ، 21 ، 22 ]، میدان‌های نوری ساخته‌شده از تصاویر گرفته‌شده با گوشی هوشمند [ 29 ]، چندگانه RGB-D [ 30 ] ارائه می‌کنند، گرفته شد. ] دوربین‌ها، و همچنین نقشه‌برداری فضایی داخلی [ 22 ، 31 ] برای ایجاد شبکه‌ای از محیط. در حالی که برخی قبل از همکاری واقعی، محیط در محل را ضبط کردند [ 29 ، 31]، دیگران بازسازی آنلاین محیط در محل را ارائه کردند [ 17 ، 21 ، 30 ] که به صحنه مجازی اجازه می‌دهد مطابق با تغییرات در محل به‌روزرسانی شود. صحنه های بازسازی شده را می توان از طریق VR-HMD [ 17 ، 19 ، 21 ، 22 ، 30 ، 31 ] یا HHD [ 29 ] مشاهده کرد.
برای پشتیبانی از همکاری در XRاسدر فضاها، همکاران خارج از سایت باید نمایش هایی از صحنه های فیزیکی ارائه دهند که کیفیت بصری بالا، به روز رسانی زنده، استقلال دیدگاه و دستکاری دو جهته را ارائه می دهند. با این حال، تحقیقات تا به امروز رویکردی را پیدا نکرده است که همه این معیارهای کیفیت را برآورده کند. در واقع، بررسی تحقیقات قبلی تفاوت‌هایی را بین کیفیت بصری و معیارهای کیفیت بیشتر نشان داد: در حالی که دوربین‌های 360 درجه کیفیت بصری بالایی ارائه می‌دهند، آنها همچنین دیدگاه همکار خارج از سایت را با توجه به موقعیت دوربین محدود می‌کنند. برخلاف تصاویر 360 درجه ایستا، ویدئوهای 360 درجه نمایشی پویا از محیط در سایت را به همکار خارج از سایت ارائه می دهند.17 ، 21 ]. به این ترتیب، جهت‌گیری ویدیوی 360 درجه، همانطور که توسط لی و همکاران ذکر شد، همیشه به جهت‌گیری سر همکار در محل بستگی دارد. [ 17 ]. برای ارائه نمای مستقل به همکار خارج از سایت، جهت گیری سر همکار در محل را ردیابی کردند و نمای همکار خارج از سایت را بر این اساس تنظیم کردند. علاوه بر این، بازسازی‌های مبتنی بر دوربین‌های 360 درجه معمولاً از دستکاری دو طرفه جلوگیری می‌کنند، زیرا همکاران خارج از سایت می‌توانند همه چیز را که در محل اتفاق می‌افتد ببینند اما خودشان نمی‌توانند اشیاء مجازی را دستکاری کنند. در عوض، چندین نشانه بصری به‌عنوان تقویت‌کننده‌های مجازی ارائه شد تا به همکاران خارج از سایت اجازه دهد تا در طول اجرای کار به همکار در محل آموزش دهند [ 17 ، 21 ]]. از آنجایی که تصاویر 360 درجه ایستا تغییرات را در سایت ثبت نمی کنند، Teo et al. [ 22 ، 32 ] به همکاران خارج از سایت اجازه می‌دهد بین یک جریان ویدیویی 360 درجه برای تجسم پویا و با کیفیت بالا و یک شبکه سه بعدی استاتیک بافت‌دار با تصویر 360 درجه انتخاب کنند تا فضا را مستقل از همکار در محل کاوش کنند. . در [ 33 ]، آنها این سیستم را بیشتر توسعه دادند، به طوری که همکاران خارج از سایت می توانستند مش استاتیک را با تصاویر 360 درجه مختلف بازسازی کنند. با این حال، آنها دریافتند که این رویکرد احتمالاً سوراخ هایی را در صحنه مجازی در نقاطی ایجاد می کند که اشیاء در تصویر یکدیگر را مسدود می کنند.
بازسازی هندسی صحنه‌های فیزیکی به‌دست‌آمده توسط دوربین‌های عمق با هدف افزایش آگاهی فضایی همکار خارج از سایت از صحنه و امکان کاوش در فضا مستقل از مکان همکار در محل است. با این حال، ارائه به‌روزرسانی‌های زنده از تغییرات در محیط محل، چالش برانگیز است، زیرا تنها آن بخش‌هایی در فضا می‌توانند به‌روزرسانی شوند که توسط دوربین عمق در این لحظه خاص ثبت شوند. رویکردهایی که از حسگرهای گنجانده شده در هولولنز استفاده می‌کردند، بازسازی ایستا از صحنه قبل از همکاری واقعی را ثبت کردند [ 22 ، 31 ، 32 ، 33 ]. به عنوان مثال، تانایا و همکاران. [ 31] از یک شبکه به دست آمده با HoloToolkit Spatial Mapping برای ارائه بازسازی صحنه MR به کاربران VR-HMD استفاده کرد. با استفاده از این رویکرد، به‌روزرسانی‌های زنده به شدت به حرکات سر همکار در محل بستگی دارد و بنابراین احتمالاً به تأخیر می‌افتد. ارائه به روز رسانی زنده مستقل از موقعیت و جهت گیری کاربر، همانطور که توسط Lindlbauer و Wilson ارائه شده است [ 30]، به تنظیمات پیچیده تری نیاز دارد. آنها از هشت دوربین RGB-D برای ارائه یک بازسازی هندسی زنده از یک اتاق فیزیکی استفاده کردند که امکان تغییرات دقیق را توسط کاربر مانند پاک کردن، کپی کردن یا تغییر شکل اشیاء دنیای واقعی فراهم می کرد. دستکاری بلادرنگ با انجام فعل و انفعالات بر روی یک شبکه وکسل – یک نمایش حجمی از فضای بازسازی شده که در آن هر وکسل اطلاعاتی را در مورد دستکاری‌های احتمالی نگه می‌دارد – فعال شد – که از نظر محاسباتی هزینه کمتری نسبت به انجام تعاملات روی شبکه زیرین داشت. موهر و همکاران [ 29]، با این حال، توجه داشته باشید که کیفیت بصری چنین رویکردهایی ممکن است توسط سطوح براق و شفاف که در محیط‌های صنعتی رایج هستند – یک زمینه کاربردی اصلی برای فناوری‌های XR – مختل شود. با پرداختن به این موضوع، آنها پیشنهاد کردند که یک میدان نوری از قسمت های مربوطه از فضای کاری به همکاران خارج از سایت ارائه شود. برای انجام این کار، همکار در محل از یک HHD برای گرفتن عکس هایی استفاده کرد که همراه با موقعیت و جهت HHD ذخیره شده بودند. به این ترتیب، همکار خارج از سایت می تواند حاشیه نویسی های سه بعدی را به میدان نوری تولید شده اضافه کند: تصویرسازی با کیفیت بالا و در عین حال ایستا از فضای کاری. در حالی که افزایش کیفیت بصری و دسترسی انتظار می رود همکاری را افزایش دهد، همچنین احتمالاً میزان داده هایی را که باید پردازش شوند افزایش می دهد. از سوی دیگر، این ممکن است باعث تاخیر شود، که می تواند ارتباط بین همکاران را مختل کند. از این رو، یکی دیگر از موضوعات مهم تحقیقاتی مربوط به بهینه سازی پردازش داده است. در این زمینه، استوتکو و همکاران. [34 ] چارچوبی برای به اشتراک گذاری صحنه های ایستا بازسازی شده بر اساس تصاویر RGB-D با چندین مشتری در زمان واقعی ارائه کرد. علاوه بر این، ممکن است با استفاده از دوقلوهای دیجیتال، مقدار داده‌های پردازش شده به حداقل برسد. به این ترتیب، اشیاء دنیای واقعی که ظاهر خود را مطابق با مقادیر حسگر قابل دسترسی تغییر می‌دهند، نیازی به ردیابی و بازپرداخت مداوم ندارند. در عوض، مقادیر حسگر مربوطه را می توان به برنامه همکار خارج از سایت ارسال کرد که ظاهر مجازی شی را مطابق با وضعیت فعلی دوقلوی دیجیتالی آن ارائه می دهد. علاوه بر این، برخی از بخش‌های محیط واقعی نه تنها توسط همکار در محل، بلکه توسط همکار خارج از سایت نیز قابل دستکاری است. به عنوان مثال، Jeršov و Tepljakov [ 35] سیستمی را ارائه کرد که امکان تغییر سطح آب یک سیستم فیزیکی چند مخزن را با دستکاری دوقلو دیجیتالی سیستم در یک محیط مجازی فراهم می کرد.
برای پشتیبانی از تعامل دو جهته در XRاس، همکاران خارج از سایت باید بتوانند به اشیاء موجود در فضای مشترک دسترسی داشته باشند و به آنها ارجاع دهند. در حالی که رویکرد ارائه شده توسط Lindlbauer و Wilson [ 30 ] به کاربران اجازه می دهد تا قسمت های خاصی را در فضای بازسازی شده دستکاری کنند، آنها تقسیم بندی معنایی را ارائه نکردند، به عنوان مثال، دستکاری ها بر روی اشیاء خاص انجام نشد بلکه روی مجموعه ای از وکسل های انتخاب شده توسط کاربر انجام شد. یک تقسیم بندی معنایی فضای بازسازی شده امکان ذخیره اطلاعات اضافی و همچنین رفتار دستکاری از پیش تعریف شده را در اشیاء تقسیم بندی شده معنایی می دهد و از این رو انتظار می رود انتخاب شی را تسریع کند و تعامل را تسهیل کند. شوت و همکاران [ 36] رویکردی را ارائه کرد که به شما امکان می دهد در حین استفاده از یک برنامه MR، فضاهای دنیای واقعی را به صورت معنایی تقسیم بندی کنید. آنها از شبکه ای از یک صحنه ثابت استفاده کردند که قبل از تقسیم بندی توسط هولولنز گرفته شده بود. با استفاده از برنامه واقعی MR، هولولنز تصاویر RGB را به یک برنامه سرور ارسال کرد که از یک روش موجود برای انجام تقسیم بندی معنایی پیروی می کرد. ابتدا، احتمالات کلاس به هر پیکسل اختصاص داده شد و متعاقباً مش با پیش بینی آن بر روی این احتمالات تقسیم شد. با اختصاص دادن هر رأس در مش به یک کلاس، اجزای متصل رئوس کلاس شی را می توان به عنوان اشیاء معنایی تفسیر کرد. سپس مش قطعه‌بندی شده معنایی به صحنه فیزیکی بازتاب داده شد، به طوری که اشیاء دنیای واقعی را می‌توان برجسته کرد، و پس از انتخاب گزینه‌های دستکاری شی خاص را ارائه داد. حاشیه نویسی خودکار صحنه های سه بعدی می تواند از پیشرفت های اخیر در یادگیری عمیق سود بیشتری ببرد. با این حال، دای و همکاران. [37 ] اشاره کرد که در این زمینه داده های آموزشی برچسب گذاری شده وجود ندارد. برای رفع این مشکل، آنها سیستمی را ارائه کردند که به افراد تازه کار اجازه می داد از طریق اسکن RGB-D از صحنه های سه بعدی عکس بگیرند. مش های سه بعدی مربوطه به طور خودکار بازسازی شدند و می توانستند توسط کاربر حاشیه نویسی شوند. به این ترتیب، آنها توانستند مجموعه داده بزرگی از صحنه های سه بعدی برچسب زده شده را جمع آوری کنند. هوانگ و همکاران [ 38] از این مجموعه داده استفاده کرد و رویکردی را ارائه کرد که امکان بخش بندی معنایی فضای سه بعدی توصیف شده توسط سوپروکسل ها را در زمان واقعی فراهم می کرد. آنها خاطرنشان کردند که تا کنون، به کارگیری تکنیک های یادگیری عمیق به دلیل حجم زیاد داده هایی که صحنه های سه بعدی را توصیف می کنند، ناکارآمد بوده است. برای کاهش حجم داده‌هایی که باید پردازش شوند، آنها فقط وکسل‌هایی را در نظر گرفتند که سطوح را در محیط سه‌بعدی توصیف می‌کنند و خوشه‌بندی سوپروکسل روی سطح را اعمال کردند. با استفاده از یک شبکه عصبی کانولوشن، آنها توانستند یک تقسیم بندی معنایی را برای این سوپروکسل ها پیش بینی کنند.
همانطور که در بالا توضیح داده شد، XRاسمحیط‌ها باید با HHD و همچنین HMD قابل دسترسی باشند. در حالی که هر دو فناوری را می توان برای کاوش یک صحنه سه بعدی استفاده کرد، لنگر انداختن حاشیه نویسی های دو بعدی در صحنه سه بعدی ساده نیست. به خصوص در تنظیمات مشترک، همکاران خارج از سایت ممکن است از HHD برای حاشیه نویسی محیط فیزیکی استفاده کنند. با این حال، هم‌پوشانی‌های مجازی ساده مانند حاشیه‌نویسی‌هایی که از نظر معنایی در فضا تثبیت نشده‌اند، هر زمان که دیدگاه مشارکت‌کننده در سایت با دیدگاهی که حاشیه‌نویسی از آن اضافه شده متفاوت باشد، بی‌فایده خواهند شد. این موضوع در چندین مقاله تحقیقاتی [ 29 ، 39 ، 40 ، 41 ، 42 ، 43 ، 44 ] مورد توجه قرار گرفت. نورنبرگر و همکاران [43 ] راه پیشرفته ای برای لنگر انداختن طرح های دوبعدی دایره ها و فلش ها به روشی تثبیت شده جهانی پیشنهاد کرد. آنها از یک طبقه‌بندی حرکتی برای تفسیر نرمال‌های طراحی و سطح صحنه کاربر استفاده کردند تا طرح مربوطه را در فضای سه‌بعدی ارائه دهند. رویکرد دیگری توسط Mohr و همکاران ارائه شد. [ 29 ]، که به همکار خارج از سایت اجازه می دهد تا میدان های نوری را در یک صفحه دو بعدی حاشیه نویسی کند، که پس از آن می توان با چرخش و ترجمه آن را به صحنه 3 بعدی تنظیم کرد. از آنجایی که دیدگاه همکار در سایت و خارج از سایت بر یک سیستم مختصات تکیه دارد، حاشیه‌نویسی‌ها هنگام اشتراک‌گذاری به‌عنوان تقویت‌کننده‌های مجازی در میدان دید مشارکت‌کننده در سایت ظاهر می‌شوند. ارائه تثبیت شده جهانی از حاشیه نویسی های دوبعدی ارائه شده توسط Lien و همکاران. [ 44] بر اساس یک تکنیک تقسیم بندی تعاملی بود. فضای سه بعدی به عنوان یک نمودار متشکل از سه نوع راس که بیانگر حاشیه نویسی دو بعدی، نقاط صحنه سه بعدی و حجم های سه بعدی است، مدل سازی شد. برای بومی سازی شی هدف ارجاع شده، آنها روشی را برای برچسب گذاری این رئوس به عنوان بخشی از هدف یا پس زمینه آن پیشنهاد کردند. به این ترتیب، شی مورد نظر می تواند به روشی جهانی تثبیت شود.

3.3. تکنیک های تعامل شهودی

فناوری‌های XR انواع تکنیک‌های تعاملی را ارائه می‌کنند که از رابط‌های لمسی و کنترل‌کننده‌های خارجی گرفته تا ورودی‌های مبتنی بر نگاه، گفتار یا ژست‌های درون هوا را شامل می‌شود. با در نظر گرفتن یک برنامه کاربردی MR یا VR، تکنیک تعامل معمولاً با توجه به وظیفه خاص و محدودیت های ایجاد شده توسط فناوری انتخاب می شود. به عنوان مثال، HHD ها حداقل به یک دست برای نگه داشتن دستگاه نیاز دارند و VR-HMD معمولاً از دیدن بدن کاربران جلوگیری می کند. به این ترتیب، تکنیک‌های تعامل مختلف ممکن است برای تکمیل کار با HMD یا HHD در برنامه‌های MR یا VR مناسب‌ترین در نظر گرفته شوند. در مورد XRاسفضاها، یک معیار اضافی وارد عمل می شود: تکنیک تعامل باید بین HMD و HHD مقیاس شود، به عنوان مثال، این تکنیک باید برای کاربران بصری باقی بماند حتی زمانی که آنها دستگاه را تغییر می دهند. با این حال، تحقیقات قبلی عمدتاً به صورت جداگانه بر روی روش‌های تعامل مختلف ارائه شده توسط فناوری‌های XR از جمله در هوا متمرکز شده است [ 45 ، 46 ، 47 ، 48 ، 49 ، 50 ، 51 ، 52 ، 53 ، 54 ]، مبتنی بر لمس [ 55 ، 56 ] , 57 , 58 , 59 ], ملموس [ 60 ,61 ، 62 ]، تکنیک های ورودی مبتنی بر سر، نگاه، یا گفتار [ 45 ، 55 ، 58 ، 63 ، 64 ، 65 ] و چند وجهی [ 55 ، 58 ، 64 ] برای انتخاب و دستکاری اشیاء مجازی نیز برای حرکت در فضا بسیاری از این رویکردها نیازمند ردیابی بخش‌هایی از بدن کاربران یا دستگاه‌های تعامل خارجی هستند. در ادامه، تکنیک‌های تعاملی را ارائه می‌کنیم که عمدتاً بر ردیابی نوری یا اینرسی تکیه دارند. ردیابی نوری، همانطور که فیکرت و همکاران اشاره کردند. [ 66]، تاخیر کم و نرخ به روز رسانی بالا را ارائه می دهد. آنها بین رویکردهای مبتنی بر نشانگر و بدون نشانگر تمایز قائل می شوند. در حالی که رویکردهای مبتنی بر نشانگر دقت بالایی ارائه می‌کنند، اما نسبت به روش‌های بدون نشانگر مبتنی بر تکنیک‌های بینایی کامپیوتری کمتر بصری در نظر گرفته می‌شوند. در زمینه XR، یک رویکرد رایج برای ردیابی نوری بدون نشانگر، گرفتن ورودی از طریق حرکات دست با کنترلر Leap Motion [ 25 ، 47 ، 50 ، 51 ] یا حسگرهای موجود در HoloLens [ 45 ، 46 ] بود. برای رویکردهای مبتنی بر نشانگر، نشانگرها به پاهای کاربر [ 53 ]، قسمت بالایی بدن [ 49 ] یا یک دستگاه خارجی [ 62 ] متصل می‌شدند.] بسته به روش ورودی. با این حال، یک نقطه ضعف عمده ردیابی نوری بدون نشانگر و مبتنی بر نشانگر مربوط به خط دید مستقیم مورد نیاز بین دوربین و شی هدف است. بسته به تنظیمات XR و موقعیت دوربین، این می تواند باعث ناراحتی و محدودیت حرکت کاربر شود. در این موارد، ردیابی اینرسی مفید در نظر گرفته می شود. کار قبلی (به عنوان مثال، [ 56 ، 58 ]) موقعیت و جهت گیری دستگاه های ورودی خارجی را در فضا با استفاده از حسگرهای IMU تعبیه شده در دستگاه – یک واحد اندازه گیری اینرسی که معمولاً از شتاب سنج ها، ژیروسکوپ ها و مغناطیس سنج ها تشکیل می شود- ردیابی کرد. چنین رویکردهایی تعامل را به بخش خاصی از فضا محدود نمی کند. با این حال، ممکن است برای حفظ دقت و تصحیح خطاهای دریفت، سنسورهای مربوطه بازنشانی شوند.66 ]. رویکردهای بیشتر (به عنوان مثال، [ 63 ، 64 ، 65 ]) از ردیاب های چشمی نصب شده روی سر برای ارائه ورودی از طریق تثبیت یا حرکات چشم استفاده کردند. یک نمای کلی از رویکردهای ردیابی چشم و تشخیص حرکت سر توسط [ 67 ] ارائه شده است.
انتخاب اشیاء مجازی یک کار کلیدی در فضاهای سه بعدی است زیرا برای برجسته کردن و دستکاری آیتم های مورد نظر عمل می کند. انتخاب معمولاً شامل دو مرحله است: (1) اشاره به هدف و (2) تأیید انتخاب. در ادامه با عبارت point به این مراحل فرعی اشاره کرده و تایید می کنیم. در حالی که برخی HMD ها مانند هولولنز با استفاده از یک دوربین تعبیه شده، تشخیص ژست های داخلی را ارائه می دهند، اکثر VR-HMD ها باید به سنسورهای اضافی مجهز شوند تا امکان انتخاب از طریق ژست های حرکتی در هوا وجود داشته باشد. به عنوان مثال، گارسیا-پریرا و همکاران. [ 25] کنترلر Leap Motion را به VR-HMD متصل کرد که دست کاربر را می گرفت و هنگام اشاره به یک هدف با یک پرتو آن را تقویت می کرد. با این حال، فناوری ردیابی نصب شده بر روی سر کاربر نیاز به بالا بردن بازوها به اندازه کافی برای گرفتن توسط حسگر دارد و بنابراین احتمالاً باعث خستگی می شود. روش‌هایی که حرکات درون هوا را از طریق دوربین‌های خارجی ثبت می‌کنند، ردیابی را در موقعیت‌های راحت‌تر فراهم می‌کنند، اما اغلب به تنظیمات پیچیده‌ای نیاز دارند و ممکن است تحرک کاربر را محدود کنند. به عنوان مثال، شویند و همکاران. [ 49 ] 18 نشانگر را به بازو و بدن کاربر متصل کرد که توسط 14 دوربین ردیابی شدند. به دنبال کاهش خستگی بازو با حفظ تحرک، تحقیقات قبلی چندین تکنیک انتخاب جایگزین را برای کاربران HMD پیشنهاد کرد. در این زمینه، Brasier و همکاران. [ 50] از کنترلر Leap Motion برای ایجاد یک صفحه مجازی در ناحیه کمر، ران یا مچ کاربر استفاده کرد که موقعیت ورودی راحت تری را برای حرکات دست در مقیاس کوچک برای کنترل مکان نما در MR ارائه می کرد. کاربران می توانند با حرکت دادن دست به موقعیت مربوطه در هواپیما مجازی به اهداف اشاره کنند. نگه داشتن مکان نما در نقطه مورد نظر انتخاب را تایید کرد. با استفاده از دستگاه IMU گنجانده شده، رو و همکاران. [ 56 ] به کاربرانی که MR-HMD پوشیده بودند، گوشی هوشمندی ارائه داد که به عنوان نشانگر لیزری برای اشاره به اهداف عمل می کرد. در همان زمان، رابط لمسی تلفن هوشمند به عنوان یک مدالیته ورودی برای دستکاری های بیشتر عمل کرد. به طور مشابه، چن و همکاران. [ 58] تعامل مبتنی بر IMU را با تلفن های هوشمند و ساعت های هوشمند که به عنوان نشانگر لیزری عمل می کنند مقایسه کرد. مکان نما از این طریق یا فقط توسط دستگاه هوشمند کنترل می شد (یعنی مکان نما می توانست میدان دید را ترک کند) یا در یک رویکرد ترکیبی که مکان نما همیشه در میدان دید باقی می ماند و حرکات در مقیاس بزرگ را می توان با حرکات سر انجام داد. حرکات در مقیاس کوچک در داخل میدان دید فعلی با دستگاه هوشمند. از طرف دیگر، مکان نما ثابت شده در مرکز میدان دید فقط با حرکات سر قابل کنترل است. سپس انتخاب ها را می توان با ضربه زدن روی رابط لمسی یا با چرخش مچ (ساعت هوشمند) تأیید کرد. به جای پارادایم نشانگر لیزری، آنها همچنین استفاده از سطح لمسی دستگاه هوشمند را به عنوان پد لمسی در نظر گرفتند. با این حال، نمایشگر ساعت هوشمند برای این رویکرد بسیار کوچک بود. یکی دیگر از تکنیک‌های انتخاب مبتنی بر گوشی‌های هوشمند برای کاربران MR-HMD توسط لی و همکاران پیشنهاد شد. [57 ]. حرکات مختلف لمسی (اجباری) برای هدایت مکان نما به نقطه شروع یک بخش متن استفاده شد. بخش متن بعد از نقطه شروع را می توان با انجام یک حرکت لمسی دایره ای یا با انتخاب نقطه پایان انتخاب کرد. علاوه بر انتخاب متن، این تکنیک ممکن است برای کارهای دیگر نیز کاربرد داشته باشد. بسانسون و همکاران [ 61 ] رویکردی برای انتخاب فضایی با HHD ترکیبی از لمس و ورودی ملموس ارائه کرد. کاربر شکلی را روی رابط لمسی ترسیم کرد که سپس با حرکت فیزیکی HHD برای انتخاب مجموعه‌ای از نقاط داده سه‌بعدی، از فضای داده‌های سه بعدی استفاده کرد. یکی دیگر از تکنیک های ورودی ملموس توسط واکر و همکاران پیشنهاد شد. [ 62]، که از یک خودکار پرینت سه بعدی با نشانگرهای بصری استفاده کرد که به کاربرانی که HHD در دست داشتند اجازه می داد اشیاء مجازی را انتخاب کنند. کره‌ها یا پرتوهای کوچک موقعیت قلم را نشان می‌دهند و می‌توان از دکمه‌ها برای تأیید انتخاب استفاده کرد. روش‌های دیگری که می‌توانند خستگی بازو را در حین انتخاب کاهش دهند به ورودی از طریق نگاه و پاها متکی هستند. همانطور که توسط مولر و همکاران پیشنهاد شده است. [ 53 ]، کاربرانی که از MR-HMD استفاده می‌کردند، می‌توانستند با پای ردیابی نوری خود بر روی زمین ضربه بزنند تا آیتم‌های یک رابط کاربری مجازی را انتخاب کنند که روی زمین یا در هوا پخش می‌شود. نوکارینن و همکاران [ 63] دو تکنیک مختلف انتخاب مبتنی بر نگاه را ارزیابی کرد که در آن شیء انتخاب شده از طریق نگاه متمرکز می شد و انتخاب با فشار دادن یک دکمه یا با ثابت نگه داشتن نگاه روی جسم برای مدت زمان مشخصی تأیید می شد. در حالی که این رویکرد به یک نوع ورودی نگاه محدود می شود، حسومی و هرتر [ 65 ] رویکردی را برای ورودی مبتنی بر نگاه کدهای عددی ارائه کردند (یعنی هر حرکت نگاه به یک رقم خاص نگاشت شد). برای انجام این کار، صفحه‌کلید عددی مجازی با نقاط کوچکی که به‌طور مداوم شکل ارقام موجود را دنبال می‌کرد، افزوده شد، به طوری که با ثابت نگه داشتن چشم‌ها بر روی نقطه متحرک مربوطه، می‌توان اعداد را وارد کرد. یک رویکرد چند وجهی برای قفل کردن پیام ها به اشیاء دنیای واقعی توسط Bâce و همکاران ارائه شد. [ 64]. اشیاء دنیای واقعی بر اساس تثبیت‌هایی که توسط ردیاب‌های چشم شناسایی می‌شوند انتخاب می‌شوند و اطلاعاتی که قرار است در جسم ذخیره شوند از طریق لمس روی ساعت هوشمند انتخاب می‌شوند. از حرکات نگاه برای قفل و باز کردن اطلاعات مربوطه استفاده شد.
پس از انتخاب یک شی هدف، کاربران باید با تکنیک های مناسب برای دستکاری موقعیت، جهت و اندازه شی مجازی ارائه شوند . Chaconas و Höllerer [ 48 ] حرکات دو دست را برای انطباق جهت و اندازه اشیاء مجازی در حین پوشیدن MR-HMD ارزیابی کردند. برای انحراف، چرخاندن، به زمین انداختن و مقیاس اشیاء مجازی، کاربران باید دست‌های نیشگون‌شده خود را نسبت به یکدیگر در جهت‌های از پیش تعریف‌شده حرکت دهند. رویکردی با استفاده از حرکات یک دست برای گرفتن و حرکت دادن اشیاء مجازی با استفاده از گوشی های هوشمند توسط Botev و همکاران ارائه شد. [ 54 ]. رو و همکاران [ 56] از ورودی لمسی معمولی با گوشی‌های هوشمند مانند ضربه‌های تکی و دوگانه، کشیدن انگشت و کشیدن با دو انگشت برای انتخاب و دستکاری بعدی استفاده می‌کرد. Fuvattanasilp و همکاران در مورد ورودی لمسی یک دست. [ 59] دشواری کنترل شش درجه آزادی (DoFs) با یک دست روی HHD را برجسته کرد. برای رسیدگی به این موضوع، آنها رویکردی را ارائه کردند که تعداد DoFهایی را که نیاز به کنترل یکباره دارند، کاهش داد. کاربر موقعیت 2 بعدی اولیه را از طریق ضربه زدن انتخاب کرد و سپس عمق را از طریق یک حرکت اسلاید در امتداد یک پرتو در HHD دستکاری کرد. سپس جهت گیری به طور خودکار با توجه به جهت گرانش (به دست آمده توسط IMU داخلی) تنظیم شد، به طوری که کاربر فقط باید با یک حرکت اسلاید روی HHD، شی را به دور این بردار جاذبه بچرخاند. تحقیقات بیشتر تکنیک های دستکاری ملموس را در نظر گرفت. به عنوان مثال، Bozgeyikli و Bozgeyikli [ 60] چرخش و ترجمه یک مکعب مجازی را با یک کنترل‌کننده خارجی، حرکات دست و تعامل ملموس (یعنی حرکت یک مکعب فیزیکی که توسط یک کنترل‌کننده قرار داده شده در داخل آن ردیابی شده بود) ارزیابی کرد. قلم AR-Pen ارائه شده توسط واکر و همکاران. [ 62 ] به کاربرانی که HHD را در دست دارند اجازه می دهد تا اشیاء مجازی را در صحنه سه بعدی حرکت دهند. پس از انتخاب شی مربوطه، می توان آن را با فشار دادن و رها کردن دکمه های روی قلم فیزیکی کشیده و رها کرد. به غیر از موقعیت و جهت هدف، کاربران ممکن است بخواهند اندازه آن را نیز دستکاری کنند. به عنوان مثال، بوسه و همکاران. [ 45] تکنیک های مختلف را برای بزرگنمایی در MR ارزیابی کرد. برای بزرگ‌نمایی و کوچک‌نمایی، کاربرانی که HMD پوشیده‌اند، می‌توانند یک دست فشرده یا یک کنترل‌کننده خارجی را در امتداد یک محور خیالی حرکت دهند، دو دست فشرده را به سمت یکدیگر یا از یکدیگر دور کنند، یا از دستورات صوتی با استفاده از کلمات کلیدی کوچکتر یا بزرگ‌تر استفاده کنند. در این زمینه، آنها خاطرنشان کردند که تحقیقات آینده باید بیشتر بررسی کند که چگونه ورودی گسسته (مانند ارائه شده توسط دستورات صوتی) بر تعامل تأثیر می گذارد. برای حاشیه نویسی اهداف در XRاس، کاربران باید اشیاء مجازی جدید را به فضا اضافه کنند. در این زمینه، چانگ و همکاران. [ 46 ] از کاربران MR-HMD خواست که فلش ها و دایره های مجازی را با دست های فشرده ترسیم کنند. حاشیه‌نویسی‌ها یا در نوک انگشت ارائه می‌شوند یا در یک صفحه دوبعدی، که توسط تقاطع پرتوی منشأ گرفته از HMD و سطح دنیای واقعی تعیین می‌شود. علاوه بر این، Surale و همکاران. [ 47 ] تکنیک هایی را برای تغییر حالت، مانند تغییر رنگ ها در طول خط کشی سه بعدی در نظر گرفت. برای این منظور، آنها حرکات مختلف دست در هوا را که توسط یک کنترلر Leap Motion گرفته شده بود، ارزیابی کردند. کاربر VR-HMD یا ترسیم خط و تغییر حالت را با عقربه غالب انجام داد، یا از رویکرد دو دستی استفاده کرد که در آن هر عملیات با یک دست انجام می‌شد. مشابه [ 46]، خطوط سه بعدی با دست های نیشگون کشیده شد. تغییر حالت را می توان با چرخاندن مچ دست یا فشار دادن انگشت دیگر (رویکرد با یک دست)، و همچنین با بالا بردن دست غیر غالب، شکل دادن به یک مشت، کلیک کردن روی یک کنترلر یا لمس HMD (رویکرد دو دستی) برانگیخت. .
یک مزیت کلیدی محیط های صرفا مجازی مربوط به فضای موجود است که می تواند حتی اشیاء عظیم را در خود جای دهد. در حالی که VR به کاربران اجازه می دهد در فضاهای مجازی که می توانند بی نهایت بزرگ باشند غوطه ور شوند، اندازه اتاق فیزیکی که در واقع در آن واقع شده اند از نظر اندازه محدود است. بنابراین، تکنیک های ناوبری مناسب مورد نیاز است. در این زمینه، فون ویلیچ و همکاران. [ 52] پتانسیل تکنیک های ورودی مختلف را بر اساس موقعیت، فشار و جهت گیری پاهای کاربر برای حرکت در VR بررسی کرد. جهت حرکت یا با جهتی که پا به آن اشاره می کند، جهت نسبی بین دو پا، یا سمتی که کاربر به آن متمایل شده است (یعنی چپ یا راست، اندازه گیری شده با فشار) مشخص می شود. فاصله تا نقطه هدف یا با ارتفاعی که جلوی پا در آن بلند شده است، فاصله بین دو پا، یا قسمتی از پا که بیشترین فشار را دریافت می کند (یعنی انگشتان پا یا پاشنه برای فواصل کوچک یا بزرگ) مشخص می شود. استفاده از فضای موجود در VR، Biener et al. [ 55] چندین صفحه نمایش را در یک صحنه VR اختصاص می دهد که معمولاً با رایانه رومیزی قابل دسترسی هستند. آن‌ها تبلتی را در اختیار کاربران VR-HMD قرار دادند که می‌توان آن را شبیه به ترک‌پد برای پیمایش روی صفحه مجازی تنها با استفاده از یک انگشت و جابه‌جایی بین صفحه‌های مجازی مختلف با انجام حرکات دو دستی روی صفحه لمسی تبلت یا با نگاه کردن استفاده کرد. در صفحه نمایش خاص در حالی که تکنیک‌های تعامل دو دستی در این مورد مفید تلقی می‌شوند، آنها برای تنظیماتی که حداقل یک دست برای نگه داشتن HHD لازم است، قابل اعمال نیستند. همچنین ساتریادی و همکاران. [ 51] دو تکنیک تعامل ترکیبی را برای ناوبری بر روی نقشه های افقی در مقیاس بزرگ با هدف کاهش حرکت دست (به عنوان مثال، خستگی بازو) و در عین حال حفظ تعامل دقیق در صورت نیاز معرفی کرد. آنها یک تکنیک تعاملی مبتنی بر استعاره جوی استیک را ترکیب کردند که در آن زوم و سرعت حرکت با جابجایی دست کاربر از موقعیت شروع با گرفتن غیرمستقیم، تکنیکی شهودی‌تر و دقیق‌تر و همچنین مستعد خستگی، به کاربران امکان می‌دهد تا حرکت کنند و با حرکت دادن دست ها در حالت نیشگون، بزرگنمایی کنید.

4. دستور کار تحقیقاتی آینده

همانطور که در بالا خلاصه شد، تحقیقات قبلی بر تقویت ویژگی‌های پشتیبانی همکاری، تجسم و تکنیک‌های تعامل در زمینه تنظیمات XR متمرکز بود. با این حال، تحقیقات پیشرفته این موضوعات را جداگانه در نظر می گیرد و ادغام نتایج تحقیقات در هر یک از این زمینه ها را برای حمایت از همکاری در XR در نظر نمی گیرد.اسفضاها با پرداختن به این شکاف، یک دستور کار تحقیقاتی آینده را ارائه می کنیم که سؤالات تحقیقاتی باقی مانده و همچنین جدیداً مطرح شده را فهرست می کند. دستور کار پیشنهادی در موضوعات مربوط به اجرای کلی XR ساختار یافته استاسو موضوعاتی برای افزایش مقیاس پذیری بین ■ دستگاه های مختلف (یعنی HMD ها و HHD ها)، ■ درجات مختلف مجازی بودن (یعنی از چپ به سمت راست زنجیره واقعیت-مجازی [ 1 ، 2 ])، و ■ تعداد متفاوت همکارانی که ممکن است در سایت های مختلف قرار داشته باشند. مشارکت های مورد انتظار در میان این موضوعات تحقیقاتی جدید در شکل 3 نشان داده شده است.
Bdcc 06 00012 g003 550
شکل 3. موضوعات تحقیق مرتبط با توسعه XRاسفضاها و مشارکت های مورد انتظار در میان آنها.

4.1. موضوعات کلی تحقیق

■ XRاسچارچوب. از آنجایی که فناوری‌های XR موجود توسط سازندگان مختلف ارائه می‌شوند و با سیستم‌عامل‌های مختلف اجرا می‌شوند (مانند MR-HMD: HoloLens توسط Microsoft [ 6 ]، VR-HMD: VIVE توسط HTC [ 4 ]، و HHD: iPad Pro توسط Apple [ 3 ] ، همه آنها را به یک XR مشترک ترکیب می کنداسفضا نیاز به توسعه بین پلتفرمی دارد که به دلیل فقدان رابط های موجود مانع می شود. برای تسهیل توسعه چنین واسط‌هایی، تحقیقات آینده باید توسعه چارچوبی را در نظر بگیرد که تعاملات با اشیاء واقعی و مجازی را رسمیت می‌دهد و نوع داده‌هایی را که باید ردیابی و بین موجودیت‌ها به اشتراک گذاشته شود، تشریح کند.
■ سخت افزار ارتقا یافته. برای اعمال XRاسدر عمل، سخت افزار ارتقا یافته ای مورد نیاز است که جنبه های ارگونومیکی را افزایش دهد و میدان دید بزرگ تری را فراهم کند. برخی از مطالعات (به عنوان مثال، [ 21 ، 51 ]) از VR-HMD برای انعکاس صحنه دنیای واقعی، از جمله تقویت‌های مجازی استفاده کردند. در حالی که در حال حاضر VR-HMD های موجود زوایای دید بزرگ تری نسبت به MR-HMD ارائه می دهند، این رویکرد مانع از بهره گیری از مزایای واقعی فناوری های MR مانند کاهش انزوا و تعامل طبیعی با اشیاء دنیای واقعی می شود.
■ ردیابی مستقل از کاربر. در تحقیقات قبلی، سخت افزاری برای ردیابی قسمت هایی از بدن کاربر و همچنین ثبت صحنه در محل به کاربران متصل شده بود. یک رویکرد رایج برای گنجاندن حرکات دست به عنوان نشانه های آگاهی در فضای XR، اتصال کنترل کننده Leap Motion [ 10 ] به HMD همکار خارج از سایت بود. به این ترتیب، تقویت دید همکار در محل با دستان همکار خارج از سایت به شدت به حرکات دست و سر همکار خارج از سایت بستگی دارد. به طور مشابه، ردیابی صحنه فیزیکی با سخت افزار متصل به HMD همکاران در محل تحت تأثیر حرکات سر و موقعیت آنها قرار می گیرد. با توجه به پذیرش عملی XRاسفضاها، این وابستگی ها به رفتار انسان باید کاهش یابد.
■ ارزیابی پیشرفته. اکثر مقالات بررسی شده سیستم های مشارکتی را با دو شرکت کننده ارزیابی کردند. در حالی که برخی از جفت‌های همکار قبل از آزمایش یکدیگر را می‌شناختند، دیگران هرگز قبلاً ملاقات نکرده بودند، و برخی از محققان (به عنوان مثال، [ 20 ، 21 )]) بازیگرانی را برای همکاری با همه شرکت کنندگان استخدام کرد. رویکرد دوم نتایج را قابل مقایسه تر می کند اما در عین حال انتقال به موارد استفاده واقعی را دشوارتر می کند. به این ترتیب، هنوز مشخص نیست که آیا سیستمی که از همکاری بین یک فرد آموزش دیده و یک فرد آموزش دیده پشتیبانی می کند، در صورت استفاده توسط دو همکار بدون آموزش نیز این کار را انجام دهد یا خیر. علاوه بر این، بسیاری از مطالعات به کارهای ساده و کوتاه مدت محدود شدند. از این رو، تحقیقات بیشتر باید ارزیابی با همکاران متعددی را که وظایف دنیای واقعی و بلندمدت را انجام می دهند، در نظر بگیرد.
■ Task Taxonomy. با توجه به تنوع تکنیک‌های تجسم و تعامل ارائه شده در XR، این فناوری‌ها در زمینه‌های مختلف برنامه‌های کاربردی پشتیبانی کننده تلقی می‌شوند. از آنجایی که هر زمینه از برنامه با نیازهای فردی همراه است، XR در حال توسعه و پیکربندی استاسفضاهای مربوط به موارد استفاده فردی را می‌توان با طبقه‌بندی وظایف پشتیبانی کرد که توضیح می‌دهد کدام همکار باید چه اقداماتی را انجام دهد و نیاز به دسترسی به بخش‌هایی از فضای مشترک دارد. ایجاد طبقه بندی وظایف برای موارد استفاده فردی همچنین نشان می دهد که کدام وظایف در موارد استفاده چندگانه مرتبط هستند، به طوری که تلاش های تحقیقاتی آینده می تواند بر این اساس اولویت بندی شود.
■ برنامه های آموزشی. XRاسفضاها به عنوان محیط های کاری طولانی مدت بسیار منعطف هستند که به هر کاربر اجازه می دهد به راحتی بین فناوری های مختلف جابجا شود. از این رو، یک بار XRاسفضاها آماده به کارگیری در عمل هستند، روش های آموزشی مناسب برای موارد استفاده، فناوری ها و کاربران با سطوح مختلف تخصص مورد نیاز است.

4.2. مقیاس پذیری بین دستگاه های مختلف

■ شهودی. برای افزایش مقیاس‌پذیری بین HMD و HHD، باید تکنیک‌های تجسم و تعاملی را در اختیار کاربران قرار داد که هنگام جابجایی بین این دستگاه‌ها برای آنها بصری باقی بماند. برای این منظور، باید بررسی شود که کدام نوع نگاشت بین تکنیک های تعامل برای نمایشگرهای دو بعدی و سه بعدی بصری تلقی می شود. به ویژه، باید بررسی شود که آیا و چگونه شهودی بودن تحت تأثیر تجربیات قبلی و پارادایم‌های تعامل شناخته شده و شناخته شده قرار می‌گیرد یا خیر. به عنوان مثال، برخی از تکنیک های تعامل مبتنی بر لمس توسط بسیاری از افرادی که از تلفن های هوشمند در زندگی روزمره خود استفاده می کنند، درونی می شوند. به این ترتیب، باید بررسی شود که آیا اصلاح این تکنیک‌های تعامل، به‌گونه‌ای که از نظر عینی ممکن است شهودی‌تر به نظر برسد، به جای حمایت از آنها، آنها را گیج می‌کند یا خیر.
■ تفسیر داده های حسگر. به منظور پیاده‌سازی ویژگی‌های پشتیبانی همکاری، تحقیقات قبلی از حسگرهای گنجانده شده در دستگاه‌های XR مانند جهت‌گیری HMD برای نمایش پرتوهای خیره استفاده کرد. در حالی که جهت HHD ها را می توان با حسگرهای تعبیه شده نیز بدست آورد، باید توجه داشت که جهت HHD همیشه با جهت نگاه واقعی کاربر مطابقت ندارد. از این رو، انتقال ویژگی‌های پشتیبانی همکاری که برای یک دستگاه خاص اجرا می‌شود به یک دستگاه دیگر ساده نیست و می‌تواند باعث سوء تفاهم شود. برای جلوگیری از آنها، تحقیقات آینده باید بر نحوه تفسیر داده های موجود در زمینه موارد استفاده مختلف نیز تمرکز کند.
■ نگاشت ورودی و خروجی.نقشه‌برداری ورودی و خروجی بین HMD و HHD باید بر اساس بینش‌های تازه به‌دست‌آمده در مورد شهودی بودن، تفسیر داده‌های حسگر، و طبقه‌بندی وظایف ایجاد شده طراحی شود. بنابراین، روش‌های ورودی موجود دستگاه‌های مختلف باید به گونه‌ای مورد بهره‌برداری قرار گیرند که به کاربر اجازه دهد به‌طور مستقیم اطلاعات را با HMD و HHD وارد کند. بدین ترتیب، طراحی نقشه خروجی باید اندازه های مختلف نمایش را در نظر بگیرد. همانطور که توسط چندین نویسنده اشاره شده است، استفاده از نمایشگرهای کوچک می تواند باعث انسداد زمانی که تقویت های مجازی بزرگ بر روی صفحه نمایش های کوچک رندر می شوند را ایجاد کند یا مانع از تشخیص تقویت های مجازی در زمانی که میدان دید محدود آنها ثبت نشده اند، شود. از این رو، باید بررسی شود که آیا و چگونه تقویت‌ها را می‌توان با اندازه نمایشگر تطبیق داد.

4.3. مقیاس پذیری بین درجات مختلف مجازی

■ کیفیت بصری. برای دستیابی به قابلیت استفاده بهینه، تحقیقات آینده باید بر روی مبادله بین کیفیت بصری و تأخیر تمرکز کنند. در این زمینه، باید بررسی شود که کدام بخش از یک صحنه فیزیکی در چه بازه های زمانی نیاز به بازسازی دارد. به عنوان مثال، در XR بزرگاسفضاها، بازسازی بلادرنگ ممکن است برای کل صحنه ضروری نباشد، بلکه فقط برای بخش‌های خاص لازم باشد. به این ترتیب، کاهش حجم کلی داده های پردازش شده می تواند به بهبود کیفیت بصری مناطق خاص کمک کند.
■ تکنیک های بازسازی مقیاس پذیر. در بخش قبل، انواع تکنیک های موجود برای بازسازی صحنه های فیزیکی را همراه با مزایا و معایب فردی آنها ارائه کردیم. با توجه به پذیرش عملی این تکنیک‌ها، صحنه‌های فیزیکی ممکن است با توجه به مواد سطح، شرایط رعد و برق و اندازه متفاوت باشند، به طوری که تکنیک‌های بازسازی مختلف برای انواع مختلف محیط‌ها مناسب هستند. برای تقویت مقیاس پذیری، تحقیقات بیشتر باید به توسعه تکنیک های بازسازی اختصاص داده شود که برای انواع صحنه های فیزیکی قابل استفاده است.
■ تعامل دو طرفه. تحقیقات قبلی به طور جداگانه بر بازسازی و تقسیم بندی معنایی صحنه های فیزیکی که ایستا یا پویا هستند متمرکز بود. به این ترتیب، تحقیقات آینده باید ادغام یافته‌های موجود در این زمینه‌های تحقیقاتی مختلف را برای ارائه تجسم‌های منسجم و قابل دسترس که امکان تعامل دو طرفه را فراهم می‌کند، در نظر بگیرد (یعنی هم مشارکت‌کنندگان در محل و هم خارج از سایت باید بتوانند به بخش‌های خاصی اشاره و دستکاری کنند. در XRاسفضا).

4.4. مقیاس پذیری بین تعداد مختلف همکاران

■ کنترل دسترسی. ویژگی‌های کنترل دسترسی پیاده‌سازی‌شده توسط تحقیقات قبلی شامل دستکاری همزمان از طریق ضرب ماتریس‌های تبدیل و همچنین قفل کردن اشیا برای همه به جز یک همکار است. با توجه به افزایش تعداد همکاران، دستکاری همزمان می تواند منجر به جابجایی، چرخش یا ترجمه بیش از حد اشیا شود. در نتیجه، آنها باید به جلو و عقب دستکاری شوند، که می تواند به جای حمایت از همکاری، مانع از همکاری شود. از این رو، باید ارزیابی شود که دستکاری همزمان برای چه میزانی از همکاران امکان پذیر است و در چه مواردی باید مالکیت به همکاران مجرد داده شود.
■ تقویت های مستقل از دیدگاه. تعداد فزاینده‌ای از همکاران، به‌ویژه در مکان‌های مشترک، دیگر اجازه نخواهند داشت در کنار یکدیگر بایستند، زیرا کم و بیش همان دیدگاه XR را دارند.اسصحنه در عوض، آنها ممکن است در اطراف تقویت‌کننده‌های مجازی در دایره‌هایی جمع شوند و با تقویت‌های مجازی از دیدگاه‌های مختلف روبرو شوند. برای جلوگیری از سوء تفاهم و حفظ پشتیبانی همکاری، باید بررسی شود که چگونه تجسم‌ها را می‌توان به گونه‌ای تنظیم کرد که به همکاران اجازه دهد از منظرهای مختلف به اشیاء مجازی دسترسی داشته باشند.
■ نشانه های آگاهی. تحقیقات قبلی انواع مختلفی از نشانه‌های آگاهی را پیشنهاد می‌کرد که نشان می‌داد همکاران چه می‌کنند یا کجا در فضا قرار دارند. با این حال، اکثر مطالعات کاربر بررسی شده به دو همکار محدود شده بود. با در نظر گرفتن تنظیماتی که شامل چندین همکار می‌شود، ارائه نشانه‌های آگاهی مانند پرتوهای نگاه برای همه همکاران به‌طور هم‌زمان احتمالاً باعث ایجاد درهم‌رفتگی بصری می‌شود که ممکن است بار شناختی را افزایش دهد. برای جلوگیری از اضافه بار شناختی و در عین حال حفظ عملکرد بهینه، به هر یک از همکاران باید آن دسته از نشانه های آگاهی ارائه شود که اطلاعات مورد نیاز برای تکمیل کار را ارائه می دهد. از آنجایی که وظایف و بار شناختی ممکن است به شدت در بین همکاران متفاوت باشد، ارائه دیدگاه های فردی برای هر همکار باید در نظر گرفته شود.

5. نتیجه گیری ها

در این مقاله به معرفی مفهوم XR می پردازیماسفضاهایی که بین درجات مختلف مجازی بودن، دستگاه‌های مختلف و تعداد متفاوت کاربران احتمالاً توزیع شده مقیاس می‌شوند. ما بر این باوریم که افزایش مقیاس پذیری پتانسیل زیادی برای افزایش پذیرش عملی فناوری های XR دارد، زیرا انتظار می رود چنین آموزش های طولانی مدت یا محیط های کاری بسیار انعطاف پذیر باعث کاهش هزینه ها و افزایش خاطره انگیزی شود. با این حال، توسعه چنین برنامه هایی ساده نیست و شامل تحقیقات بین رشته ای است. در واقع، ما موضوعات زیر را مرتبط ترین زمینه های تحقیقاتی برای توسعه XR در نظر می گیریماسفضاها: (1) ویژگی‌های پشتیبانی از همکاری مانند کنترل دسترسی، و همچنین نشانه‌های آگاهی که نشان می‌دهد سایر همکاران کجا هستند و چه می‌کنند. (2) تجسم‌های سازگار و در دسترس که شامل تقسیم‌بندی معنایی صحنه‌های فیزیکی تقریباً بازسازی‌شده است. (3) تکنیک های تعامل برای انتخاب، دستکاری، و ناوبری در XRاسکه حتی زمانی که کاربران بین دستگاه‌ها یا درجاتی از مجازی بودن سوئیچ می‌کنند، برای کاربران شهودی باقی می‌مانند.
در حالی که تاکنون این موضوعات به طور جداگانه بررسی شده اند، ما پیشنهاد می کنیم که نتایج کارهای قبلی را برای افزایش مقیاس پذیری ادغام کنیم. در حال توسعه XRاسفضاها به چندین زمینه تحقیقاتی مستقل مرتبط است که مدت ها قبل از ظهور فناوری های XR وجود داشته است. در این مقاله، ما بر روی جدیدترین مقالات تحقیقاتی در این زمینه‌ها که با کاربردهای AR، MR یا VR سروکار دارند، تمرکز می‌کنیم. بنابراین، به عنوان اولین گام برای ساخت XRاسما کار مرتبط را مرور می کنیم و چالش های ناشی از ادغام نتایج تحقیقات قبلی را برجسته می کنیم. بر این اساس، ما دستور کار سوالات بسیار مرتبط را پیشنهاد می کنیم که باید توسط تحقیقات آینده به منظور ساخت XR مورد توجه قرار گیرد.اسفضاهایی که به طور کامل از پتانسیل ذاتی فناوری های XR استفاده می کنند.

References

  1. Milgram, P.; Kishino, F. A Taxonomy of Mixed Reality Visual Displays. IEICE Trans. Inf. Syst. 1994, 77, 1321–1329. [Google Scholar]
  2. Milgram, P.; Takemura, H.; Utsumi, A.; Kishino, F. Augmented Reality: A class of displays on the reality-virtuality continuum. In Telemanipulator and Telepresence Technologies; Das, H., Ed.; SPIE: Bellingham, WA, USA, 1995; Volume 2351, pp. 282–292. [Google Scholar] [CrossRef]
  3. iPad Pro. Available online: https://www.apple.com/ipad-pro/ (accessed on 28 October 2021).
  4. VIVE Pro Series. Available online: https://www.vive.com/us/product/#pro%20series (accessed on 28 October 2021).
  5. Oculus Headsets. Available online: https://www.oculus.com/compare/ (accessed on 17 January 2022).
  6. HoloLens 2. Available online: https://www.microsoft.com/en-us/hololens/hardware (accessed on 28 October 2021).
  7. Magic Leap. Available online: https://www.magicleap.com/en-us/magic-leap-1 (accessed on 17 January 2022).
  8. Glass. Available online: https://www.google.com/glass/tech-specs/ (accessed on 17 January 2022).
  9. Perry, T.S. Look Out for Apple’s AR Glasses: With head-up displays, cameras, inertial sensors, and lidar on board, Apple’s augmented-reality glasses could redefine wearables. IEEE Spectr. 2021, 58, 26–54. [Google Scholar] [CrossRef]
  10. Leap Motion Controller. Available online: https://www.ultraleap.com/product/leap-motion-controller/ (accessed on 28 October 2021).
  11. Johansen, R. Teams for tomorrow (groupware). In Proceedings of the Twenty-Fourth Annual Hawaii International Conference on System Sciences, Kauai, HI, USA, 8–11 January 1991; IEEE: Piscataway, NJ, USA, 1991; Volume 3, pp. 521–534. [Google Scholar] [CrossRef]
  12. Wells, T.; Houben, S. CollabAR—Investigating the Mediating Role of Mobile AR Interfaces on Co-Located Group Collaboration. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, Honolulu, HI, USA, 25–30 April 2020; ACM: New York, NY, USA, 2020. [Google Scholar] [CrossRef]
  13. Grandi, J.G.; Debarba, H.G.; Bemdt, I.; Nedel, L.; Maciel, A. Design and Assessment of a Collaborative 3D Interaction Technique for Handheld Augmented Reality. In Proceedings of the 2018 IEEE Conference on Virtual Reality and 3D User Interfaces (VR), Tuebingen/Reutlingen, Germany, 18–22 March 2018; IEEE: Piscataway, NJ, USA, 2018; pp. 49–56. [Google Scholar] [CrossRef]
  14. Bai, H.; Sasikumar, P.; Yang, J.; Billinghurst, M. A User Study on Mixed Reality Remote Collaboration with Eye Gaze and Hand Gesture Sharing. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, Honolulu, HI, USA, 25–30 April 2020; ACM: New York, NY, USA, 2020. [Google Scholar] [CrossRef]
  15. Huang, W.; Alem, L.; Tecchia, F.; Duh, H.B.L. Augmented 3D hands: A gesture-based mixed reality system for distributed collaboration. J. Multimodal User Interfaces 2018, 12, 77–89. [Google Scholar] [CrossRef]
  16. Kim, S.; Lee, G.; Huang, W.; Kim, H.; Woo, W.; Billinghurst, M. Evaluating the Combination of Visual Communication Cues for HMD-based Mixed Reality Remote Collaboration. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems, Glasgow, UK, 4–9 May 2019; ACM: New York, NY, USA, 2019. [Google Scholar] [CrossRef]
  17. Lee, G.A.; Teo, T.; Kim, S.; Billinghurst, M. A User Study on MR Remote Collaboration Using Live 360 Video. In Proceedings of the 2018 IEEE International Symposium on Mixed and Augmented Reality (ISMAR), Munich, Germany, 16–20 October 2018; IEEE: Piscataway, NJ, USA, 2018; pp. 153–164. [Google Scholar] [CrossRef]
  18. De Pace, F.; Manuri, F.; Sanna, A.; Zappia, D. A Comparison between Two Different Approaches for a Collaborative Mixed-Virtual Environment in Industrial Maintenance. Front. Robot. AI 2019, 6, 18. [Google Scholar] [CrossRef] [PubMed]
  19. Pereira, V.; Matos, T.; Rodrigues, R.; Nóbrega, R.; Jacob, J. Extended Reality Framework for Remote Collaborative Interactions in Virtual Environments. In Proceedings of the 2019 International Conference on Graphics and Interaction (ICGI), Faro, Portugal, 21–22 November 2019; IEEE: Piscataway, NJ, USA, 2019; pp. 17–24. [Google Scholar] [CrossRef]
  20. Piumsomboon, T.; Lee, G.A.; Hart, J.D.; Ens, B.; Lindeman, R.W.; Thomas, B.H.; Billinghurst, M. Mini-Me: An Adaptive Avatar for Mixed Reality Remote Collaboration. In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems, Montreal, QC, Canada, 21–26 April 2018; ACM: New York, NY, USA, 2018. [Google Scholar] [CrossRef]
  21. Piumsomboon, T.; Lee, G.A.; Irlitti, A.; Ens, B.; Thomas, B.H.; Billinghurst, M. On the Shoulder of the Giant: A Multi-Scale Mixed Reality Collaboration with 360 Video Sharing and Tangible Interaction. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems, Glasgow, UK, 4–9 May 2019; ACM: New York, NY, USA, 2019. [Google Scholar] [CrossRef]
  22. Teo, T.; Hayati, A.F.; Lee, G.A.; Billinghurst, M.; Adcock, M. A Technique for Mixed Reality Remote Collaboration using 360 Panoramas in 3D Reconstructed Scenes. In Proceedings of the 25th ACM Symposium on Virtual Reality Software and Technology, Parramatta, NSW, Australia, 12–15 November 2019; ACM: New York, NY, USA, 2019. [Google Scholar] [CrossRef]
  23. Marks, S.; White, D. Multi-Device Collaboration in Virtual Environments. In Proceedings of the 2020 4th International Conference on Virtual and Augmented Reality Simulations, Sydney, NSW, Australia, 14–16 February 2020; ACM: New York, NY, USA, 2020; pp. 35–38. [Google Scholar] [CrossRef]
  24. Ibayashi, H.; Sugiura, Y.; Sakamoto, D.; Miyata, N.; Tada, M.; Okuma, T.; Kurata, T.; Mochimaru, M.; Igarashi, T. Dollhouse VR: A Multi-View, Multi-User Collaborative Design Workspace with VR Technology. In Proceedings of the SIGGRAPH Asia 2015 Emerging Technologies, Kobe, Japan, 2–6 November 2015; ACM: New York, NY, USA, 2015. [Google Scholar] [CrossRef]
  25. García-Pereira, I.; Gimeno, J.; Pérez, M.; Portalés, C.; Casas, S. MIME: A Mixed-Space Collaborative System with Three Immersion Levels and Multiple Users. In Proceedings of the 2018 IEEE International Symposium on Mixed and Augmented Reality Adjunct (ISMAR-Adjunct), Munich, Germany, 16–20 October 2018; IEEE: Piscataway, NJ, USA, 2018; pp. 179–183. [Google Scholar] [CrossRef]
  26. Yu, D.; Jiang, W.; Wang, C.; Dingler, T.; Velloso, E.; Goncalves, J. ShadowDancXR: Body Gesture Digitization for Low-cost Extended Reality (XR) Headsets. In Proceedings of the Companion, 2020 Conference on Interactive Surfaces and Spaces, Virtual Event, Portugal, 8–11 November 2020; ACM: New York, NY, USA, 2020; pp. 79–80. [Google Scholar] [CrossRef]
  27. Ahuja, K.; Goel, M.; Harrison, C. BodySLAM: Opportunistic User Digitization in Multi-User AR/VR Experiences. In Proceedings of the Symposium on Spatial User Interaction, Virtual Event, Canada, 30 October–1 November 2020; ACM: New York, NY, USA, 2020. [Google Scholar] [CrossRef]
  28. Erickson, A.; Norouzi, N.; Kim, K.; Schubert, R.; Jules, J.; LaViola, J.J., Jr.; Bruder, G.; Welch, G.F. Sharing gaze rays for visual target identification tasks in collaborative augmented reality. J. Multimodal User Interfaces 2020, 14, 353–371. [Google Scholar] [CrossRef]
  29. Mohr, P.; Mori, S.; Langlotz, T.; Thomas, B.H.; Schmalstieg, D.; Kalkofen, D. Mixed Reality Light Fields for Interactive Remote Assistance. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, Honolulu, HI, USA, 25–30 April 2020; ACM: New York, NY, USA, 2020. [Google Scholar] [CrossRef]
  30. Lindlbauer, D.; Wilson, A.D. Remixed Reality: Manipulating Space and Time in Augmented Reality. In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems, Montreal, QC, Canada, 21–26 April 2018; ACM: New York, NY, USA, 2018. [Google Scholar] [CrossRef]
  31. Tanaya, M.; Yang, K.; Christensen, T.; Li, S.; O’Keefe, M.; Fridley, J.; Sung, K. A Framework for analyzing AR/VR Collaborations: An initial result. In Proceedings of the 2017 IEEE International Conference on Computational Intelligence and Virtual Environments for Measurement Systems and Applications (CIVEMSA), Annecy, France, 26–28 June 2017; IEEE: Piscataway, NJ, USA, 2017; pp. 111–116. [Google Scholar] [CrossRef]
  32. Teo, T.; Lawrence, L.; Lee, G.A.; Billinghurst, M.; Adcock, M. Mixed Reality Remote Collaboration Combining 360 Video and 3D Reconstruction. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems, Glasgow, UK, 4–9 May 2019; ACM: New York, NY, USA, 2019. [Google Scholar] [CrossRef]
  33. Teo, T.; Norman, M.; Lee, G.A.; Billinghurst, M.; Adcock, M. Exploring interaction techniques for 360 panoramas inside a 3D reconstructed scene for mixed reality remote collaboration. J. Multimodal User Interfaces 2020, 14, 373–385. [Google Scholar] [CrossRef]
  34. Stotko, P.; Krumpen, S.; Hullin, M.B.; Weinmann, M.; Klein, R. SLAMCast: Large-Scale, Real-Time 3D Reconstruction and Streaming for Immersive Multi-Client Live Telepresence. IEEE Trans. Vis. Comput. Graph. 2019, 25, 2102–2112. [Google Scholar] [CrossRef] [PubMed]
  35. Jeršov, S.; Tepljakov, A. Digital Twins in Extended Reality for Control System Applications. In Proceedings of the 2020 43rd International Conference on Telecommunications and Signal Processing (TSP), Milan, Italy, 7–9 July 2020; IEEE: Piscataway, NJ, USA, 2020; pp. 274–279. [Google Scholar] [CrossRef]
  36. Schütt, P.; Schwarz, M.; Behnke, S. Semantic Interaction in Augmented Reality Environments for Microsoft HoloLens. In Proceedings of the 2019 European Conference on Mobile Robots (ECMR), Prague, Czech Republic, 4–6 September 2019; IEEE: Piscataway, NJ, USA, 2019. [Google Scholar] [CrossRef]
  37. Dai, A.; Chang, A.X.; Savva, M.; Halber, M.; Funkhouser, T.; Nießner, M. ScanNet: Richly-Annotated 3D Reconstructions of Indoor Scenes. In Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, HI, USA, 21–26 July 2017; IEEE: Piscataway, NJ, USA, 2017; pp. 2432–2443. [Google Scholar] [CrossRef]
  38. Huang, S.S.; Ma, Z.Y.; Mu, T.J.; Fu, H.; Hu, S.M. Supervoxel Convolution for Online 3D Semantic Segmentation. ACM Trans. Graph. 2021, 40, 1–15. [Google Scholar] [CrossRef]
  39. Gauglitz, S.; Lee, C.; Turk, M.; Höllerer, T. Integrating the physical environment into mobile remote collaboration. In Proceedings of the 14th International Conference on Human-Computer Interaction with Mobile Devices and Services, San Francisco, CA, USA, 21–24 September 2012; ACM: New York, NY, USA, 2012; pp. 241–250. [Google Scholar] [CrossRef]
  40. Gauglitz, S.; Nuernberger, B.; Turk, M.; Höllerer, T. In Touch with the Remote World: Remote Collaboration with Augmented Reality Drawings and Virtual Navigation. In Proceedings of the 20th ACM Symposium on Virtual Reality Software and Technology, Edinburgh, UK, 11–13 November 2014; ACM: New York, NY, USA, 2014; pp. 197–205. [Google Scholar] [CrossRef]
  41. Gauglitz, S.; Nuernberger, B.; Turk, M.; Höllerer, T. World-stabilized annotations and virtual scene navigation for remote collaboration. In Proceedings of the 27th Annual ACM Symposium on User Interface Software and Technology, Honolulu, HI, USA, 5–8 October 2014; ACM: New York, NY, USA, 2014; pp. 449–459. [Google Scholar] [CrossRef]
  42. Nuernberger, B.; Lien, K.C.; Grinta, L.; Sweeney, C.; Turk, M.; Höllerer, T. Multi-view gesture annotations in image-based 3D reconstructed scenes. In Proceedings of the 22nd ACM Conference on Virtual Reality Software and Technology, Munich, Germany, 2–4 November 2016; ACM: New York, NY, USA, 2016; pp. 129–138. [Google Scholar] [CrossRef]
  43. Nuernberger, B.; Lien, K.C.; Höllerer, T.; Turk, M. Interpreting 2D gesture annotations in 3D augmented reality. In Proceedings of the 2016 IEEE Symposium on 3D User Interfaces (3DUI), Greenville, SC, USA, 19–20 March 2016; IEEE: Piscataway, NJ, USA, 2016; pp. 149–158. [Google Scholar] [CrossRef]
  44. Lien, K.C.; Nuernberger, B.; Höllerer, T.; Turk, M. PPV: Pixel-Point-Volume Segmentation for Object Referencing in Collaborative Augmented Reality. In Proceedings of the 2016 IEEE International Symposium on Mixed and Augmented Reality (ISMAR), Merida, Mexico, 19–23 September 2016; IEEE: Piscataway, NJ, USA, 2016; pp. 77–83. [Google Scholar] [CrossRef]
  45. Kiss, F.; Woźniak, P.W.; Biener, V.; Knierim, P.; Schmidt, A. VUM: Understanding Requirements for a Virtual Ubiquitous Microscope. In Proceedings of the 19th International Conference on Mobile and Ubiquitous Multimedia, Essen, Germany, 22–25 November 2020; ACM: New York, NY, USA, 2020; pp. 259–266. [Google Scholar] [CrossRef]
  46. Chang, Y.S.; Nuernberger, B.; Luan, B.; Höllerer, T. Evaluating gesture-based augmented reality annotation. In Proceedings of the 2017 IEEE Symposium on 3D User Interfaces (3DUI), Los Angeles, CA, USA, 18–19 March 2017; IEEE: Piscataway, NJ, USA, 2017; pp. 182–185. [Google Scholar] [CrossRef]
  47. Surale, H.B.; Matulic, F.; Vogel, D. Experimental Analysis of Barehand Mid-air Mode-Switching Techniques in Virtual Reality. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems, Glasgow, UK, 4–9 May 2019; ACM: New York, NY, USA, 2019. [Google Scholar] [CrossRef]
  48. Chaconas, N.; Höllerer, T. An Evaluation of Bimanual Gestures on the Microsoft HoloLens. In Proceedings of the 2018 IEEE Conference on Virtual Reality and 3D User Interfaces (VR), Tuebingen/Reutlingen, Germany, 18–22 March 2018; IEEE: Piscataway, NJ, USA, 2018. [Google Scholar] [CrossRef]
  49. Schwind, V.; Mayer, S.; Comeau-Vermeersch, A.; Schweigert, R.; Henze, N. Up to the Finger Tip: The Effect of Avatars on Mid-Air Pointing Accuracy in Virtual Reality. In Proceedings of the 2018 Annual Symposium on Computer-Human Interaction in Play, Melbourne, VIC, Australia, 28–31 October 2018; ACM: New York, NY, USA, 2018; pp. 477–488. [Google Scholar] [CrossRef]
  50. Brasier, E.; Chapuis, O.; Ferey, N.; Vezien, J.; Appert, C. ARPads: Mid-air Indirect Input for Augmented Reality. In Proceedings of the 2020 IEEE International Symposium on Mixed and Augmented Reality (ISMAR), Porto de Galinhas, Brazil, 9–13 November 2020; IEEE: Piscataway, NJ, USA, 2020; pp. 332–343. [Google Scholar] [CrossRef]
  51. Satriadi, K.A.; Ens, B.; Cordeil, M.; Jenny, B.; Czauderna, T.; Willett, W. Augmented Reality Map Navigation with Freehand Gestures. In Proceedings of the 2019 IEEE Conference on Virtual Reality and 3D User Interfaces (VR), Osaka, Japan, 23–27 March 2019; IEEE: Piscataway, NJ, USA, 2019; pp. 593–603. [Google Scholar] [CrossRef]
  52. von Willich, J.; Schmitz, M.; Müller, F.; Schmitt, D.; Mühlhäuser, M. Podoportation: Foot-Based Locomotion in Virtual Reality. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, Honolulu, HI, USA, 25–30 April 2020; ACM: New York, NY, USA, 2020. [Google Scholar] [CrossRef]
  53. Müller, F.; McManus, J.; Günther, S.; Schmitz, M.; Mühlhäuser, M.; Funk, M. Mind the Tap: Assessing Foot-Taps for Interacting with Head-Mounted Displays. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems, Glasgow, UK, 4–9 May 2019; ACM: New York, NY, USA, 2019. [Google Scholar] [CrossRef]
  54. Botev, J.; Mayer, J.; Rothkugel, S. Immersive mixed reality object interaction for collaborative context-aware mobile training and exploration. In Proceedings of the 11th ACM Workshop on Immersive Mixed and Virtual Environment Systems, Amherst, MA, USA, 18 June 2019; ACM: New York, NY, USA, 2019; pp. 4–9. [Google Scholar] [CrossRef]
  55. Biener, V.; Schneider, D.; Gesslein, T.; Otte, A.; Kuth, B.; Kristensson, P.O.; Ofek, E.; Pahud, M.; Grubert, J. Breaking the Screen: Interaction Across Touchscreen Boundaries in Virtual Reality for Mobile Knowledge Workers. IEEE Trans. Vis. Comput. Graph. 2020, 26, 3490–3502. [Google Scholar] [CrossRef] [PubMed]
  56. Ro, H.; Byun, J.H.; Park, Y.J.; Lee, N.K.; Han, T.D. AR Pointer: Advanced Ray-Casting Interface Using Laser Pointer Metaphor for Object Manipulation in 3D Augmented Reality Environment. Appl. Sci. 2019, 9, 3078. [Google Scholar] [CrossRef]
  57. Lee, L.H.; Zhu, Y.; Yau, Y.P.; Braud, T.; Su, X.; Hui, P. One-thumb Text Acquisition on Force-assisted Miniature Interfaces for Mobile Headsets. In Proceedings of the 2020 IEEE International Conference on Pervasive Computing and Communications (PerCom), Austin, TX, USA, 23–27 March 2020; IEEE: Piscataway, NJ, USA, 2020. [Google Scholar] [CrossRef]
  58. Chen, Y.; Katsuragawa, K.; Lank, E. Understanding Viewport- and World-based Pointing with Everyday Smart Devices in Immersive Augmented Reality. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, Honolulu, HI, USA, 25–30 April 2020; ACM: New York, NY, USA, 2020. [Google Scholar] [CrossRef]
  59. Fuvattanasilp, V.; Fujimoto, Y.; Plopski, A.; Taketomi, T.; Sandor, C.; Kanbara, M.; Kato, H. SlidAR+: Gravity-aware 3D object manipulation for handheld augmented reality. Comput. Graph. 2021, 95, 23–35. [Google Scholar] [CrossRef]
  60. Bozgeyikli, E.; Bozgeyikli, L.L. Evaluating Object Manipulation Interaction Techniques in Mixed Reality: Tangible User Interfaces and Gesture. In Proceedings of the 2021 IEEE Virtual Reality and 3D User Interfaces (VR), Lisboa, Portugal, 27 March–1 April 2021; IEEE: Piscataway, NJ, USA, 2021; pp. 778–787. [Google Scholar] [CrossRef]
  61. Besançon, L.; Sereno, M.; Yu, L.; Ammi, M.; Isenberg, T. Hybrid Touch/Tangible Spatial 3D Data Selection. Comput. Graph. Forum 2019, 38, 553–567. [Google Scholar] [CrossRef]
  62. Wacker, P.; Nowak, O.; Voelker, S.; Borchers, J. ARPen: Mid-Air Object Manipulation Techniques for a Bimanual AR System with Pen & Smartphone. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems, Glasgow, UK, 4–9 May 2019; ACM: New York, NY, USA, 2019. [Google Scholar] [CrossRef]
  63. Nukarinen, T.; Kangas, J.; Rantala, J.; Koskinen, O.; Raisamo, R. Evaluating ray casting and two gaze-based pointing techniques for object selection in virtual reality. In Proceedings of the 24th ACM Symposium on Virtual Reality Software and Technology, Tokyo, Japan, 28 November–1 December 2018; ACM: New York, NY, USA, 2018. [Google Scholar] [CrossRef]
  64. Bâce, M.; Leppänen, T.; de Gomez, D.G.; Gomez, A.R. ubiGaze: Ubiquitous Augmented Reality Messaging Using Gaze Gestures. In Proceedings of the SIGGRAPH ASIA 2016 Mobile Graphics and Interactive Applications, Macau, 5–8 December 2016; ACM: New York, NY, USA, 2016. [Google Scholar] [CrossRef]
  65. Hassoumi, A.; Hurter, C. Eye Gesture in a Mixed Reality Environment. In Proceedings of the 14th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications—HUCAPP, Prague, Czech Republic, 25–27 February 2019; pp. 183–187. [Google Scholar] [CrossRef]
  66. Fikkert, W.; D’Ambros, M.; Bierz, T.; Jankun-Kelly, T.J. Interacting with Visualizations. In Proceedings of the Human-Centered Visualization Environments: GI-Dagstuhl Research Seminar, Dagstuhl Castle, Germany, 5–8 March 2006; Revised Lectures. Kerren, A., Ebert, A., Meyer, J., Eds.; Springer: Berlin/Heidelberg, Germany, 2007; pp. 77–162. [Google Scholar] [CrossRef]
  67. Al-Rahayfeh, A.; Faezipour, M. Eye Tracking and Head Movement Detection: A State-of-Art Survey. IEEE J. Transl. Eng. Health Med. 2013, 1, 2100212. [Google Scholar] [CrossRef] [PubMed]
  • اشتراک گذاری:
author avatar
ادمین 1

مطلب قبلی

شش روندی که می تواند آینده صنعت غذا را شکل دهد
خرداد 3, 1401

مطلب بعدی

اثرات آب و هوا بر جامعه
خرداد 3, 1401

ممکن است همچنین دوست داشته باشید

download (7)
آینده‌اندیشی: نگارش سناریوها
20 بهمن, 1401
images (4)
19 شهریور, 1401
images (5)
تاریخچه آینده‌پژوهی
10 مرداد, 1401

نظر بدهید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

آخرین نوشته ها

  • مدل تجاری
  • سازمان تحقیق و توسعه با تمرکز بر حال و آینده
  • مدیریت مالی: دامنه، اهداف و اهمیت
  • آینده‌اندیشی: نگارش سناریوها
  • چگونه ذهنیت می تواند یک کسب و کار را ایجاد یا شکست دهد

درخواست مقاله و اسلاید سفارشی

برای سفارش مقاله و اسلاید با ما در ارتباط باشید:
reformh@yahoo.com

ارسال درخواست

[miniorange_social_login shape="longbuttonwithtext" theme="default" space="4" width="240" height="40"]

ورود با حساب کاربری سایت شما

رمز عبوررا فراموش کرده اید؟

هنوز عضو نیستید؟ همین حالا عضو شو!

یک حساب کاربری جدید ثبت کنید

آیا عضو هستید? اکنون وارد شوید