[ad_1]
در دو سال گذشته ، Facebook AI Research (FAIR) با 13 دانشگاه در سراسر جهان همکاری کرده است تا بزرگترین مجموعه داده های ویدئوهای اول شخص را ادغام کند-به طور خاص برای آموزش مدل های تشخیص تصویر با یادگیری عمیق. هوش مصنوعی که روی مجموعه داده ها آموزش دیده است برای کنترل روبات های تعامل با مردم یا تفسیر تصاویر از طریق عینک هوشمند بهتر است. کریستن گرومن از FAIR ، سرپرست این پروژه می گوید: “ماشین ها می توانند به ما در زندگی روزمره ما کمک کنند ، اگر آنها واقعاً جهان را از نگاه خود درک کنند.”
چنین فناوری می تواند به کسانی که در خانه به کمک احتیاج دارند ، کمک کند ، یا افراد را در کارهایی که یاد می گیرند انجام دهند راهنمایی کند. مایکل ریو ، محقق مغز Google در Ego4D و محقق بینایی رایانه ای در دانشگاه استونی بروک در نیویورک می گوید: “فیلم موجود در این مجموعه داده ها بسیار نزدیک به نحوه مشاهده انسان در جهان است.”
اما سوء استفاده های احتمالی آشکار و نگران کننده است. همانطور که توسط تحقیقات MIT Technology Review تأیید شد ، بودجه این تحقیق توسط غول رسانه های اجتماعی تأمین می شود ، که اخیراً در سنای آمریکا متهم به سودجویی شده است.
مدل کسب و کار فیس بوک و دیگر شرکت های بزرگ فناوری این است که تا آنجا که ممکن است داده ها را از رفتار آنلاین افراد استخراج کرده و به تبلیغ کنندگان بفروشند. هوش مصنوعی توصیف شده در پروژه می تواند به رفتارهای آفلاین روزانه افراد ، آنچه در اطراف خانه شما وجود دارد ، از چه فعالیتهایی لذت برده اید ، با چه کسانی وقت گذرانده اید و کجا چشم شما باقی مانده است – به درجه بی سابقه ای از اطلاعات شخصی برسد.
گرامان می گوید: “حریم خصوصی کاری است که شما از دنیای تحقیقات اکتشافی خارج می کنید و آن را به عنوان یک محصول انجام می دهید.” “این اثر همچنین می تواند از این پروژه الهام گرفته شود.”
بزرگترین مجموعه داده های ویدئوهای اول شخص شامل 100 ساعت فیلم افراد در آشپزخانه است. مجموعه داده Ego4D شامل فیلم هایی است که توسط 055 نفر در نه3 مکان مختلف ضبط شده است.
سن و سابقه شرکت کنندگان متفاوت بود. برخی برای مشاغل مورد علاقه خود مانند نانوا ، مکانیک ، نجار و غرفه داران منظره استخدام شدند.
مجموعه داده های قبلی معمولاً شامل چند ثانیه کلیپ های ویدئویی نیمه اسکریپت شده هستند. در Ego4D ، شرکت کنندگان تا 10 ساعت روی سر خود دوربین نصب می کردند و فیلم های اول شخص از فعالیت های نانوشته روزانه ، از جمله قدم زدن در خیابان ، خواندن ، شستن لباس ، خرید ، \u0628\u0627\u0632\u06cc با حیوانات خانگی ، \u0628\u0627\u0632\u06cc روی صفحه را ضبط می کردند. به با افراد دیگر ارتباط برقرار کنید. برخی از فیلم ها شامل صدا ، داده های مربوط به محل دیدگاه شرکت کنندگان و دیدگاه های متعدد در یک صحنه واحد است. ریو می گوید این اولین مجموعه داده در نوع خود است.
[ad_2]