نوشته شده توسط : vacumblupom@gmail.com

محققان MIT با استفاده از سیستم یادگیری ماشینی معروف به یک شبکه عصبی عمیق ، اولین مدل را ایجاد کرده اند که می تواند عملکرد انسان را در کارهای شنیداری مانند شناسایی ژانر موسیقی تکرار کند.


این مدل که شامل بسیاری از لایه های واحد پردازش اطلاعات است که می تواند در حجم عظیمی از داده ها برای انجام وظایف خاص آموزش داده شود ، توسط محققان مورد استفاده قرار گرفت تا روشن شود که چگونه مغز انسان می تواند همان وظایف را انجام دهد.

جاش مک مکدرموت ، فردریک A. و کارول جی میدلتون استادیار علوم اعصاب می گوید: "اولین چیزی که این مدل ها برای اولین بار به ما می دهند ، سیستم های ماشینی است که می توانند وظایف حسی را برای انسانها انجام دهند و این کار را در سطح انسان انجام دهند." در گروه مغز و علوم شناختی در MIT و نویسنده ارشد این مطالعه. "از نظر تاریخی ، این نوع پردازش حسی درک بخشی از آن دشوار بوده است ، زیرا ما واقعاً بنیادی نظری کاملاً واضح و روش خوبی برای تهیه مدل هایی از آنچه ممکن است در جریان باشد نداشته ایم."

این مطالعه ، که در شماره 19 آوریل نورون به نظر می رسد ، همچنین شواهدی را نشان می دهد که قشر شنوایی انسان درست مانند قشر بینایی در یک سازمان سلسله مراتبی قرار گرفته است. در این نوع چیدمان ، اطلاعات حسی از مراحل پی در پی پردازش عبور می کند ، اطلاعات اولیه پردازش شده با ویژگی های اولیه و پیشرفته تر مانند کلمه به معنی استخراج شده در مراحل بعدی.

دانشجوی فارغ التحصیل MIT الكساندر كل و استادیار دانشگاه استنفورد ، استادیار دانیل یامینز نویسندگان اصلی این مقاله هستند. نویسندگان دیگر دانش آموز سابق MIT هستند که اریکا شاوک بازدید می کنند و سابق سابق MIT سام نورمن-مبارزر هستند.

مدل سازی مغز

هنگامی که شبکه های عصبی عمیق برای اولین بار در دهه 1980 توسعه یافت ، دانشمندان علوم اعصاب امیدوار بودند که بتوان از چنین سیستمهایی برای مدل سازی مغز انسان استفاده کرد . با این حال ، رایانه های آن دوره به اندازه کافی قدرتمند نبودند تا بتوانند مدل هایی را به اندازه کافی بزرگ برای انجام وظایف در دنیای واقعی مانند تشخیص شی یا تشخیص گفتار انجام دهند.

در طی پنج سال گذشته ، پیشرفت در قدرت محاسبات و فناوری شبکه عصبی باعث شده است که از شبکه های عصبی برای انجام کارهای دشوار در دنیای واقعی استفاده شود و آنها در بسیاری از برنامه های مهندسی به یک روش استاندارد تبدیل شده اند. به موازات آن ، برخی از دانشمندان علوم اعصاب مجدداً این احتمال را مورد بررسی قرار داده اند که ممکن است از این سیستم ها برای مدل سازی مغز انسان استفاده شود.



كل می گوید: "این فرصتی هیجان انگیز برای علوم اعصاب بوده است ، به این ترتیب كه ما می توانیم در واقع سیستمهایی ایجاد كنیم كه بتواند برخی از كارهایی را كه مردم می توانند انجام دهند ، انجام دهیم.

محققان MIT شبکه عصبی خود را برای انجام دو کار شنیداری آموزش دادند ، یکی مربوط به گفتار و دیگری مربوط به موسیقی. محققان برای انجام وظیفه گفتار ، هزاران ضبط دو ثانیه ای از شخصی را که در حال صحبت است به این مدل دادند. وظیفه شناسایی کلمه در وسط کلیپ بود. برای انجام کار موسیقی از این مدل خواسته شد تا ژانر یک کلیپ موسیقی دو ثانیه ای را شناسایی کند. هر کلیپ همچنین شامل سر و صدای پس زمینه برای واقعی تر کردن کار (و دشوارتر شدن) کار بود.

پس از هزاران نمونه ، مدل یاد گرفت که وظیفه را دقیقاً دقیقاً به عنوان شنونده انسانی انجام دهد.

کل می گوید: "ایده با گذشت زمان مدل بهتر و بهتر در کار انجام می شود." "امید این است که در حال یادگیری یک چیز کلی است ، بنابراین اگر صدای جدیدی را که مدل قبلاً آن را نشنیده است ، ارائه دهید ، خوب عمل خواهد کرد ، و در عمل که غالباً چنین است."

این مدل همچنین تمایل داشت در همان کلیپ هایی که انسان ها بیشترین اشتباه را کردند اشتباه کنند.

واحدهای پردازشی که یک شبکه عصبی را تشکیل می دهند می توانند به روش های مختلفی ترکیب شوند و معماری های مختلفی را تشکیل می دهند که بر عملکرد مدل تأثیر می گذارد.

تیم MIT کشف کرد که بهترین مدل برای این دو کار ، یکی است که پردازش را به دو دسته مراحل تقسیم می کند. اولین مرحله از مراحل بین وظایف به اشتراک گذاشته شد ، اما پس از آن ، برای تجزیه و تحلیل بیشتر به دو شاخه تقسیم شد - یکی شاخه برای کار گفتار و دیگری برای کار ژانر موسیقی.

مدارکی برای سلسله مراتب

محققان سپس از الگوی خود برای کشف یک سؤال دیرینه درباره ساختار قشر شنوایی استفاده کردند: آیا به صورت سلسله مراتبی سازمان یافته است یا خیر.

در یک سیستم سلسله مراتبی ، یک سری از مناطق مغز انواع مختلفی از محاسبات را بر روی اطلاعات حسی هنگام عبور از طریق سیستم انجام می دهد. به خوبی ثابت شده است که قشر بینایی این نوع سازمان را دارد. نواحی اولیه ، که به قشر بینایی اولیه معروف هستند ، به ویژگیهای ساده ای مانند رنگ یا جهت گیری پاسخ می دهند. مراحل بعدی کارهای پیچیده تری مانند شناسایی شی را امکان پذیر می کند.

با این حال ، آزمایش اینکه آیا این نوع سازمان در قشر شنوایی نیز وجود دارد ، دشوار بوده است ، زیرا مدلهای خوبی وجود ندارد که بتوانند رفتار شنیداری انسان را تکرار کنند.

وی گفت: "ما فکر کردیم که اگر بتوانیم مدلی را بسازیم که بتواند برخی از همان کارهایی را که مردم انجام می دهند ، انجام دهند ، ممکن است بتوانیم مراحل مختلف مدل را با قسمت های مختلف مغز مقایسه کنیم و شواهدی در مورد اینکه آیا آن قسمت های مغز ممکن است به صورت سلسله مراتبی سازمان یافته باشد. "

محققان دریافتند که در مدل خود ، ویژگیهای اصلی صدا مانند فرکانس استخراج در مراحل اولیه آسانتر است. با پردازش اطلاعات و دورتر در امتداد شبکه ، استخراج فرکانس سخت تر می شود اما استخراج اطلاعات سطح بالاتر مانند کلمات آسان تر می شود.

محققان برای دیدن اینکه آیا مراحل این مدل چگونه پردازش قشر شنوایی انسان اطلاعات صوتی را تکرار می کند ، از تصویربرداری رزونانس مغناطیسی عملکردی (fMRI) برای اندازه گیری مناطق مختلف قشر شنوایی استفاده می کند زیرا مغز برای تلفن های موبایل در دنیای واقعی استفاده می کند. آنها سپس پاسخ های مغز را با پاسخ های مدل در مقایسه با پردازش همان صداها مقایسه کردند.

آنها دریافتند که مراحل میانی مدل با فعالیت در قشر شنوایی اولیه مطابقت دارد و مراحل بعدی بهتر با فعالیت خارج از قشر اولیه مطابقت دارد. محققان می گویند این قشر شواهدی وجود دارد که قشر شنوایی را می توان به روش سلسله مراتبی ، مشابه قشر بینایی ترتیب داد.

مک ددرت می گوید: "آنچه ما کاملاً واضح می بینیم ، تمایز قشر شنوایی اولیه و سایر موارد است."

نویسندگان اکنون قصد دارند مدلهایی را تولید کنند که بتوانند انواع دیگری از کارهای شنیداری را نیز انجام دهند ، از جمله تعیین موقعیت مکانی که صدا خاصی از آن به وجود آمده است ، تا بررسی کنند که آیا این وظایف را می توان با مسیرهای مشخص شده در این مدل انجام داد یا در صورت نیاز به مسیرهای جداگانه ، که می تواند در مغز مورد بررسی قرار گیرد.

 



:: بازدید از این مطلب : 182
|
امتیاز مطلب : 0
|
تعداد امتیازدهندگان : 0
|
مجموع امتیاز : 0
تاریخ انتشار : یک شنبه 25 خرداد 1399 | نظرات ()
نوشته شده توسط : vacumblupom@gmail.com

تیمی از محققان مایکروسافت دریافته اند که برای کار با تکنیک های تحریک جسمی همانطور که در برنامه های واقعیت مجازی امیدوار بود ، باید کاربر را تحریک کند. اگر آنها یادداشت های گروهی در مقاله Focus خود که در Science Robotics چاپ شده است ، نباشند ، ممکن است واقعاً احساس غرق شدن کنند.


بازی های واقعیت مجازی غوطه وری تر از بازی هایی هستند که در صفحه ویدیویی نمایش داده می شوند . اما محققان هنوز ایستاده نشده اند. آنها می خواهند با افزودن عناصر دیگری مانند احساسات بدنی در هنگام لمس بازیکنان اشیاء ، یا بوی آشپزی یا سوزش ، تجربه را غرق تر کنند. خلاصه اینکه ، آنها می خواهند حواس ما را به تجربه اضافه کنند.

یکی از راه هایی که محققان به دنبال افزودن تجربیات حسی هستند ، لرزش های جزئی کنترلرهای بازی است. به گفته وی ، ارتعاشات ظریف می تواند یک واقعیت را به یک جسم مانند اسلحه یا حتی چوب ببخشد - مکانیسم معروف به بازخورد هاپتیک. اما محققان مایکروسافت دریافتند که لرزش یک شیء کافی نیست. کاربر باید تجربه احساس غوطه وری را تجربه کند.

محققان آنچه را که پیدا کرده اند با نوع دیگری از واقعیت شبیه سازی شده مقایسه می کنند - روبات هایی که شبیه انسان هستند. محققان دریافته اند که هرچه روبات ها به طور فزاینده ای به انسان شباهت دارند ، مردم احساساتی مشابه آنچه که توسط تماس واقعی انسان ایجاد می شود را تجربه می کنند - اما فقط تا یک نقطه خاص. اگر بشریت یک ربات به آن نقطه گذشته شود ، مردم اغلب آنچه را "دره غیر مجهول" نامیده می شود تجربه می کنند ، که در آن توهم آشکار است و این ربات چیزی بیش از مجموعه قطعات مکانیکی به نظر نمی رسد.

 

ویدئویی که مفاهیم اصلی این تمرکز را نشان می دهد. اعتبار: Berger et al.، Sci. ربات . 3، eaar7010 (2018)
برای رسیدن به نتیجه گیری ، تیم مایکروسافت داوطلبانی را که دارای هدفون VR بودند و کنترل کننده هایی را در یک محیط مجازی کنترل شده تعامل داشتند ، مورد مطالعه قرار دادند. کنترل کننده ها رولپلاک های چوبی بودند که مجهز به عناصر ارتعاشی بودند. کنترل کننده ها اجازه انجام تونل زنی را می دهند ، که در آن لرزش ها باعث می شود تا کاربر به نظر برسد که کنترلر در مکان های مختلف لمس می شود. این تیم آزمایش همهجانبه کنترلر را با تغییر در زمان و در جایی که لرزش رخ داده است آزمایش کردند و دریافتند که بهترین احساسات تنها زمانی اتفاق می افتد که یک شیء مجازی با دست زدن به کنترلر نشان داده شود و توضیحی راجع به احساساتی که احساس می کرد به کاربر ارائه داد.

 

 


:: بازدید از این مطلب : 197
|
امتیاز مطلب : 0
|
تعداد امتیازدهندگان : 0
|
مجموع امتیاز : 0
تاریخ انتشار : یک شنبه 25 خرداد 1399 | نظرات ()
نوشته شده توسط : vacumblupom@gmail.com

دوربین های پوشیدنی مانند Snap Spectacles وعده می دهند فیلم هایی از کنسرت های زنده یا جراحی های فوری را با جهان به اشتراک بگذارید. اما از آنجا که این دوربین ها باید از باتری های کوچکتر برای وزن کم و کارا استفاده کنند ، این دستگاه ها نمی توانند جریان ویدیویی با کیفیت بالا را انجام دهند.


اکنون ، مهندسان دانشگاه واشنگتن روش جدید پخش ویدئو HD را تهیه کرده اند که نیازی به اتصال به آن نیست. نمونه اولیه آنها قطعات گرسنه را پرش می کند و چیز دیگری مانند گوشی های هوشمند دارد ، به جای آن ، فیلم را پردازش می کند.

آنها این کار را با استفاده از تکنیکی به نام backscatter انجام می دهند که از طریق آن دستگاه می تواند با بازتاب سیگنال هایی که به آن منتقل شده است ، اطلاعات را به اشتراک بگذارد.

شیام گولاکوتا ، استادیار دانشکده علوم کامپیوتر و پل جی آلن ، UW در این باره می گوید: "فرض اساسی که مردم تاکنون ایجاد کرده اند این است که می توان از backscatter فقط برای سنسورهای نرخ داده پایین مانند سنسور دما استفاده کرد." مهندسی. "این کار این فرض را می شکند و نشان می دهد که backscatter در واقع می تواند حتی از فیلمبرداری کامل HD پشتیبانی کند."

این تیم این یافته ها را در 10 آوریل در سمپوزیوم انجمن سیستم های محاسبات پیشرفته در مورد طراحی و پیاده سازی سیستم های شبکه ارائه داد .

در دوربین های جریان امروز ، ابتدا دوربین قبل از انتقال از طریق وای فای ، فیلم را پردازش و فشرده می کند. این مؤلفه های پردازشی و ارتباطی به خصوص با فیلم های HD قدرت زیادی می خورند. در نتیجه ، یک دوربین سبک وزن که به باتری های بزرگ یا منبع تغذیه نیاز ندارد ، از دسترس خارج شده است. تیم UW سیستم جدیدی تولید کرده است که همه این مؤلفه ها را از بین می برد. در عوض ، پیکسل های موجود در دوربین مستقیماً به آنتن وصل می شوند و مقادیر شدت را از طریق backscatter به تلفن هوشمند نزدیک ارسال می کنند. این تلفن که محدودیت اندازه و وزن یکسان با دوربین استریم کوچک ندارد ، می تواند در عوض فیلم را پردازش کند.


برای انتقال ویدیو ، سیستم اطلاعات پیکسل را از هر فریم به یک سری پالس ها ترجمه می کند که در آن عرض هر پالس مقدار پیکسل را نشان می دهد. مدت زمان پالس متناسب با روشنایی پیکسل است.

جوشوا اسمیت ، استاد دانشگاه School Allen و گروه مهندسی برق UW گفت: "این نوع شبیه به نحوه ارتباط سلول های مغز با یکدیگر است." "سلولهای عصبی یا در حال سیگنال شدن هستند یا نیستند ، بنابراین اطلاعات در زمان پتانسیلهای عملکردشان رمزگذاری می شوند."



این تیم ایده خود را با استفاده از نمونه اولیه ای که ویدیوهای HD YouTube را به داده های پیکسلی خام تبدیل کرده است ، آزمایش کردند. سپس آنها پیکسل ها را در سیستم backscatter خود تغذیه کردند. طراحی آنها می تواند فیلم های HD 720p را با 10 فریم در ثانیه به دستگاهی با فاصله 14 فوت منتقل کند.

مهرداد حصار ، دانشجوی نویسنده و دکتری علوم کامپیوتر و مهندسی کامپیوتر گفت: "این مانند دوربین است که صحنه را ضبط می کند و فیلم را به یک دستگاه در اتاق بعدی می فرستد."

از این نمونه اولیه کم جریان ، می توان در دوربین های پوشیدنی نسل بعدی و همچنین در بسیاری از دستگاه های متصل به اینترنت استفاده کرد. اعتبار: دنیس وایز / دانشگاه واشنگتن
سیستم این گروه از 1000 تا 10،000 برابر انرژی کمتری نسبت به فناوری جریان فعلی استفاده می کند. اما هنوز هم یک باتری کوچک دارد که از عملکرد مداوم پشتیبانی می کند. اسمیت که استاد میلتون و دلیا زوتشل استاد عالی کارآفرینی است گفت: قدم بعدی ساخت دوربین های فیلمبرداری بی سیم کاملاً عاری از باتری است.

این تیم همچنین یک دوربین امنیتی با وضوح پایین و کم مصرف ایجاد کرده است که می تواند با سرعت 13 فریم در ثانیه جریان یابد. این متناسب با طیف وسیعی از عملکردهایی است که گروه برای این فناوری پیش بینی کرده است.

سامان نادریپاریزی گفت: "برنامه های بسیاری وجود دارد." "در حال حاضر دوربین های امنیتی منزل باید همیشه وصل شوند. اما با تکنولوژی ما ، می توانیم به طور موثری سیم را برای دوربین های پخش کننده بی سیم قطع کنیم."

این گروه همچنین دنیایی را در نظر می گیرد که این دوربین ها به اندازه کافی هوشمند هستند که فقط در مواقعی که برای هدف خاص خود مورد نیاز هستند روشن می شوند و این باعث صرفه جویی در انرژی بیشتر می شود.

 



:: بازدید از این مطلب : 177
|
امتیاز مطلب : 0
|
تعداد امتیازدهندگان : 0
|
مجموع امتیاز : 0
تاریخ انتشار : یک شنبه 25 خرداد 1399 | نظرات ()
نوشته شده توسط : vacumblupom@gmail.com

پهپادی که می توانید با بدن خود کنترل کنید؟ شما آن را حدس زدید. فن آوری در حال بازی به شکل Exosuit است. یک تیم سوئیسی در تلاش برای ایجاد یک کار فقط برای انجام این کار گام برد.


ویدئویی که اخیراً منتشر شده FlyJacket خود را ارائه داده است . EPFL (Ecole Polytechnique Federale de Lausanne) این فیلم را به همراه مرکز ملی صلاحیت در تحقیقات ارائه کرد. این یک اسکلت نرم فوقانی بدن است. می دانید این یعنی چه؟ خداحافظی جوی استیک و کنترل از راه دور در حین عملیات.

جیمز هالووی در New اطلس گفت: در آزمایشاتی که با کاربران FlyJacket انجام شده است ، واکنش ها نشان داد که آنها "هنگام احساس ناراحتی کمتری نسبت به هنگام استفاده از کنترل های معمولی ، احساس غوطه وری بیشتر در پرواز حس می کنند ."

یک مزیت بزرگ این است که مبتدیان در مورد تجربه تجربه پرواز بدون سرنشین احساس اطمینان بیشتری می کنند بدون شک آنها ممکن است متلاشی و ناکام باشند. این ویدئو می گوید: "رابط های پوشیدنی می توانند کنترل طبیعی و بصری پهپادها را فعال کنند. چقدر شهودی؟ بازوهای خود را گسترش داده و باور کنید که پرواز می کنید.

می توان از حرکات فوقانی بدن استفاده کرد.


اوان آکرمن در IEEE Spectrum گفت: "Exosuit به روش آموزش احتیاج چندانی ندارد زیرا ذاتاً بسیار بصری است." کارین رگنون ، یکی از اعضای تیم EPFL ، به IEEE Spectrum گفت که آنها می خواهند تعامل بین هواپیماهای بدون سرنشین و انسان را طبیعی تر جلوه دهند - برای ایجاد همزیستی بین آنها.

این اسکلت اسکلت (1) دارای یک دستگاه ردیابی حرکت برای ردیابی حرکات بدن (2) سیستم پشتیبانی بازو برای جلوگیری از خستگی ، و (3) عینک همراه برای مشاهده از دید هواپیماهای بدون سرنشین است.

از منظر پهپاد؟ جیمز هالووی در اطلس جدید : "خلبان یک هدست واقعیت مجازی یا صفحه نمایش دیگر نصب شده روی سر را می پوشاند تا آنها ببینند که هواپیمای بدون سرنشین از دوربین جلوی خود چه می بیند."

این آزمایشگاه در آزمایشگاه سیستمهای هوشمند EPFL ، به سرپرستی استاد داریو فلورانو ساخته شد. محققان مقاله ای درباره کار خود نوشتند.

Rognon، C.، Mintchev، S.، Dell'Agnola، F.، Cherpillod، A.، Atienza، D.، & Floreano، D. به عنوان نویسندگان "FlyJacket: An Exoskeleton Soft Body External for Drone Immersive Drone" ذکر شده است. "در نامه های روباتیک و اتوماسیون IEEE . FlyJacket برای فروپاشی یک پهپاد واقعی نشان داده شده است.



در نتایج گزارش ، نویسندگان گفتند كه شركت كنندگان در مطالعه خود احساس غوطه وری بیشتری می كنند ، احساس پرواز بیشتری نسبت به پرواز دارند و هنگام فعال كردن پشتی بازو خستگی كمتری را گزارش می كنند. آکرمن نوشت: "شما به پایان می رسد که حرکات این هواپیمای بدون سرنشین را با بدن خود احساس می کنید ، و بازخوردی را که با یک کنترل کننده دریافت نمی کنید ارائه می دهید. مردم همچنین گزارش کرده اند که احساس کمتری از بیماری ناشی از VR دارند ، که این ممکن است به دلیل قطع ارتباط کمتری باشد. حرکتی که چشمان شما می بیند و حرکتی که بقیه بدن شما (و به ویژه گوش داخلی شما) احساس می کند. "

مقاله آنها در مورد ارزیابی آنها از خواستگاری برای استفاده در کنترل هواپیماهای بدون سرنشین بحث می کند. آنها آزمایشاتی را انجام دادند که شامل اتصال کت و شلوار به پهپادهای نرم افزاری شبیه سازی و کوادکوپترها برای تقلید دینامیک پرواز یک هواپیمای بدون سرنشین با هواپیمای بدون سرنشین است.

آنها 32 شرکت کننده (25 مرد و 7 زن) ثبت نام کردند. آنها یک هواپیمای بدون سرنشین شبیه سازی شده با بال ثابت را با پوشیدن FlyJacket یا یک کنترل از راه دور کنترل می کنند. در هر دو مورد ، آنها از googles واقعیت مجازی (Oculus) استفاده می کردند. آنها در یک شبیه ساز توسعه یافته در Unity3D یک هواپیمای بدون سرنشین پرواز کردند . در پایان آزمایش ، شرکت کنندگان پرسشنامه ای را پر کردند. از آنها در مورد راحتی و همه گیر بودن سؤال شد.

با توجه به راحتی جسمی ، شرکت کنندگان نسبت به سایر شرایط پرواز با استفاده از Exosuit از کنترل از راه دور ناراحتی قابل توجهی نشان دادند.

آنها دریافتند که عملکرد Exosuit در مقایسه با یک کنترل از راه دور معمولی است.

به گفته نویسندگان ، این سیستم به راحتی می تواند در کوله پشتی جای بگیرد و در مزرعه حمل شود.

 



:: بازدید از این مطلب : 215
|
امتیاز مطلب : 0
|
تعداد امتیازدهندگان : 0
|
مجموع امتیاز : 0
تاریخ انتشار : یک شنبه 25 خرداد 1399 | نظرات ()

صفحه قبل 1 ... 10 11 12 13 14 ... 15 صفحه بعد