این یک تصویر شگفت انگیز است که نشان می دهد ريشه تعصبات از هوش مصنوعی تحقیق. ورودی کم با وضوح تصویر باراک اوباما اولین رئیس جمهور سیاه پوست ایالات متحده آمریکا به یک الگوریتم طراحی شده برای تولید depixelated چهره و خروجی است که یک مرد سفید پوست.
این فقط اوباما یا. همان الگوریتم برای تولید تصاویر با وضوح بالا از بازیگر لوسی لیو و یا نماینده کنگره اسکندریه Ocasio-کورتز از وضوح پایین ورودی و در نتیجه چهره های مجزا سفید. به عنوان یکی از محبوب tweet به نقل از اوباما به عنوان مثال قرار داده و آن را: "این اثر صحبت می کند حجم در مورد خطرات ناشی از تعصب در هوش مصنوعی است."
اما چه چیزی باعث این خروجی و چه آنها واقعا به ما بگویید که در مورد هوش مصنوعی bias ؟
اول ما نیاز به یک کمی در مورد این فن آوری استفاده می شود در اینجا. برنامه تولید این تصاویر توسط یک الگوریتم به نام نبض که با استفاده از یک تکنیک شناخته شده به عنوان ارتقاء به پردازش داده های بصری. ارتقاء است مانند "زوم و افزایش" استعارههای شما ببینید در تلویزیون و فیلم, اما بر خلاف در هالیوود, واقعی نرم افزار می توانید فقط تولید اطلاعات جدید از هیچ است. به منظور به نوبه خود کم و وضوح تصویر را با وضوح بالا از یک نرم افزار برای پر کردن جاهای خالی با استفاده از یادگیری ماشین.
در مورد پالس الگوریتم انجام این کار است StyleGAN که ایجاد شده بود توسط محققان از NVIDIA. اگر چه شما ممکن است شنیده ام از StyleGAN قبل از شما احتمالا آشنا با کار خود را. این الگوریتم مسئول ساخت آن ترسناک واقعی چهره انسان را که شما می توانید در وب سایت های مانند ThisPersonDoesNotExist.com; چهره بنابراین واقع بینانه آنها اغلب استفاده می شود برای تولید جعلی پروفایل های رسانه های اجتماعی.
چه پالس می کند این است که استفاده از StyleGAN به "تصور" high-res نسخه pixelated ورودی. این کار نه با "افزایش" اصلی low-res تصویر اما با تولید کاملا جدید با وضوح بالا در صورت است که زمانی که pixelated, به نظر می رسد همان به عنوان یکی از وارد شده توسط کاربر.
این به این معنی هر depixelated تصویر می تواند upscaled در انواع راه همان راه یک مجموعه واحد از مواد باعث می شود غذاهای مختلف. این نیز به همین دلیل شما می توانید با استفاده از پالس به ببینید که چه عذاب یا قهرمان بازی Wolfenstein 3Dو یا حتی گریه emoji مانند نگاه در وضوح بالا. این نیست که الگوریتم "پیدا کردن" جدید جزئیات در تصویر همانطور که در "زوم و افزایش" استعاره; آن را به جای اختراع چهره های جدید است که بازگشت به داده های ورودی.
این نوع از کار شده است از لحاظ نظری ممکن است برای چند سال در حال حاضر, اما همانطور که اغلب مورد در هوش مصنوعی جهان آن را به مخاطبان بزرگتر که آسان برای اجرای نسخه از کد به اشتراک گذاشته آنلاین در این آخر هفته. این زمانی است که نابرابری نژادی شروع به جهش.
پالس سازندگان می گویند این روند روشن است: هنگامی که با استفاده از این الگوریتم به مقیاس pixelated, تصاویر, الگوریتم بیشتر تولید مواجه با قفقازی, ویژگی های.
"این به نظر می رسد که پالس تولید سفید چهره بسیار بیشتر از چهره افراد از رنگ" نوشت: الگوریتم سازندگان در Github. "این تعصب است که به احتمال زیاد به ارث برده از مجموعه داده StyleGAN آموزش دیده بود در [...] هر چند ممکن است عوامل دیگری که ما بی اطلاع هستند."
به عبارت دیگر به دلیل اطلاعات StyleGAN آموزش دیده بود در زمانی که این تلاش به آمده تا با چهره ای که به نظر می رسد مانند pixelated ورودی تصویر پیش فرض آن را به ویژگی های سفید.
این مشکل بسیار شایع در یادگیری ماشین و آن را یکی از دلایل الگوریتم های تشخیص صورت انجام بدتر در غیر سفید و زن مواجه است. داده های مورد استفاده برای آموزش هوش مصنوعی است که اغلب به صورت اریب به سمت یک جمعیتی از مردان سفید پوست و هنگامی که یک برنامه را می بیند داده نشده است که جمعیتی در آن انجام نشده. نه اتفاقا این مردان سفید که تسلط هوش مصنوعی تحقیق.
اما دقیقا همان چیزی است که اوباما به عنوان مثال نشان می دهد در مورد تعصب و چگونه این مشکلات نشان دهنده آن ممکن است ثابت هستند و سوالات پیچیده. در واقع آنها آنقدر پیچیده است که این تنها تصویر را برانگیخته گرم اختلاف میان AI دانشگاهیان و مهندسین و محققان.
در یک سطح فنی برخی از کارشناسان مطمئن نیستند این است که حتی یک نمونه از مجموعه داده تعصب. هوش مصنوعی هنرمند ماریو Klingemann نشان می دهد که پالس الگوریتم انتخاب خود جای داده است سرزنش می کنند. Klingemann اشاره می کند که او قادر به استفاده از StyleGAN به تولید بیشتر غیر سفید خروجی از همان pixelated اوباما در تصویر زیر نشان داده شده:
من تا به حال سعی کنید خود من روش برای این مشکل است. هنوز مطمئن شوید که اگر شما می توانید آن را بهبود اما به سادگی شروع شیب فرود از مکان های مختلف به صورت تصادفی در نهان فضای شما در حال حاضر می تواند تنوع بیشتر در نتایج جستجو. pic.twitter.com/dNaQ1o5l5l
— ماریو Klingemann (@quasimondo) 21 ژوئن 2020
این چهره ها ایجاد شد با استفاده از "همان مفهوم و همان StyleGAN مدل" اما جستجو مختلف به روش پالس می گوید Klingemann که می گوید: ما واقعا نمی تواند قاضی یک الگوریتم از فقط چند نمونه است. "وجود دارد احتمالا میلیون ها ممکن است چهره است که همه را کاهش می دهد به همان صفحه الگو و همه آنها به همان اندازه 'درست'," او گفت: آستانه.
(این نیز به همین دلیل از ابزار مانند این بعید است که استفاده می شود برای نظارت بر اهداف. چهره های ایجاد شده توسط این فرآیند خیالی و به عنوان مثال بالا نشان می دهد باید کمی نسبت به زمین حقیقت از ورودی است. با این حال, آن را شبیه به ویژگی های نقص را متوقف کرده اند و پلیس از اتخاذ فن آوری در گذشته است.)
اما صرف نظر از علت خروجی الگوریتم مغرضانه به نظر می رسد چیزی است که محققان متوجه نیست قبل از اینکه این ابزار شد به طور گسترده ای در دسترس است. این صحبت می کند به یک متفاوت و فراگیر تر نوع تعصب: یکی که در عمل در سطح اجتماعى است.
دبورا راجی, یک پژوهشگر هوش مصنوعی پاسخگویی می گوید در آستانه این که این نوع از تعصب است که همه بیش از حد معمول در هوش مصنوعی جهان است. "با توجه به اساسی وجود از مردم از رنگ غفلت از آزمایش این وضعیت حیرت انگیز است و به احتمال زیاد نشان دهنده عدم تنوع ما برای دیدن ادامه با توجه به که می شود برای ساخت چنین سیستم هایی می گوید:" راجی. "مردم از رنگ نیست دورافتاده. ما نه 'لبه موارد' نویسندگان فقط می توانید را فراموش کرده ام."
این واقعیت است که برخی از محققان به نظر می رسد مشتاق به تنها آدرس داده طرف از تعصب مشکل این است که آنچه موجب بزرگتر استدلال در مورد اوباما تصویر. Facebook ارشد هوش مصنوعی دانشمند Yann LeCun شد flashpoint برای این گفتگو پس از به tweeting در پاسخ به تصویر و گفت که "ML سیستم های مغرضانه هنگامی که داده ها مغرضانه است" و اضافه کرد که این نوع از تعصب است به مراتب بیشتر مشکل جدی "در یک مستقر محصول از یک مقاله ی دانشگاهی." مفهوم آن این که: بیایید نگران نباشید بیش از حد در مورد این مثال خاص است.
بسیاری از محققان راجی در میان آنها صورت گرفت موضوع را با LeCun فریم اشاره به این که تعصب در هوش مصنوعی است که تحت تاثیر گسترده تر و بی عدالتی های اجتماعی و تعصبات و است که به سادگی با استفاده از "صحیح" داده نمی مقابله با بی عدالتی بزرگتر.
دیگران اشاره کرد که حتی از نقطه نظر صرفا فنی تعمیر "عادلانه" مجموعه اغلب می تواند هر چیزی اما. برای مثال یک مجموعه داده از چهره های است که با دقت منعکس جمعیتی از انگلستان خواهد بود عمدتا سفید چون انگلستان است که عمدتا سفید. یک الگوریتم آموزش دیده در این داده ها را انجام می دهد بهتر است در سفید چهره از غير چهره سفید. به عبارت دیگر "عادلانه" مجموعه هنوز هم می تواند ایجاد گرایش سیستم های. (در یک بعد موضوع را در توییتر LeCun اذعان کرد وجود دارد به علل متعدد برای AI تعصب.)
راجی می گوید آستانه او نیز شگفت زده LeCun پیشنهاد که محققان باید نگرانی در مورد تعصب کمتر از مهندسین تولید تجاری سیستم و این منعکس عدم آگاهی در بالاترین سطح میباشد.
"Yann LeCun آگهی صنعت آزمایشگاه شناخته شده برای کار بر روی بسیاری از تحقیقات کاربردی مشکلاتی که آنها به طور منظم به دنبال productize می گوید:" راجی. "من به معنای واقعی کلمه نمی توانند درک کنند که چگونه کسی که در آن موقعیت نیست اذعان نقشی که تحقیقات در تنظیم هنجارهای مهندسی اعزامهای." آستانه رسیده به LeCun نظر اما نمی دریافت پاسخ قبل از انتشار.
بسیاری از تجاری هوش مصنوعی سیستم های, برای مثال, ساخته شده به طور مستقیم از پژوهش داده ها و الگوریتم ها بدون هیچ گونه تنظیم برای نژادی یا جنسیتی و نابرابری. عدم رسیدگی به مشکل از تعصب در مرحله پژوهش فقط استمرار مشکلات موجود است.
در این معنا, سپس, ارزش, از, اوباما, تصویر نیست که آن را در معرض یک نقص در یک الگوریتم; آن است که این ارتباط در سطح بصری های فراگیر طبیعت هوش مصنوعی تعصب. آنچه در آن پنهاناین است که مشکل از تعصب می رود بسیار عمیق تر از هر گونه مجموعه داده یا الگوریتم. آن را یک موضوع فراگیر است که نیاز به مقدار بیشتر از ویژگی های رفع.
به عنوان یک پژوهشگر Vidushi Marda پاسخ در توییتر به چهره سفید تولید شده توسط الگوریتم: "در مورد آن نیاز به گفت: به صراحت - این است یک تماس برای 'تنوع' در مجموعه داده یا بهبود دقت در عملکرد - آن را به یک تماس برای یک تجدید نظر اساسی از موسسات و افراد است که طراحی و توسعه و گسترش این فن آوری در وهله اول است."
tinyurlis.gdu.nuclck.ruulvis.netshrtco.de
مقالات مشابه
- Joe Danger: Autistic Boy، 8 ساله، الهام بخش بازی مجدد است که به او کمک کرد "چیزهای عادی کودکان را تجربه کند" | اخبار علم و فناوری
- پاناسونیک برای از سرگیری کار در تسلا نیویورک خورشیدی کارخانه این هفته
- شرکت صادرات و واردات کالاهای مختلف از جمله کاشی و سرامیک و ارائه دهنده خدمات ترانزیت و بارگیری دریایی و ریلی و ترخیص کالا برای کشورهای مختلف از جمله روسیه و کشورهای حوزه cis و سایر نقاط جهان - بازرگانی علی قانعی
- Elon Musk trots out pigs in demo of Neuralink brain implants
- لایههای کاملاً بستهبندی شده مومیایی مصری برای اولین بار با فناوری اسکن "پوسته شد" | اخبار جهان
- Nagalakshmi Alankara به الوهیت علامت دوم Ashada جمعه در Chamundi تپه معبد
- تیروملا معبد برای برگزاری دادگاه به اجرا دارشان'
- TikTok برای بیش از یک سال شناسه دستگاه در نقض سیاست های آندروید 88801100011088جمع آوریبرنامه اندرویدTikTok آدرس MAC کاربران را به مدت 18 ماه در نقض قوانین پلت <em>Wall Street Journal</em> فرم جمع آوری کرد، که توسط یک تحقیق وال استریت جورنال در روز سه شنبه کشف شد. آدرس ها به عنوان یک شناسه منحصر به فرد برای دستگاه هر کاربر خدمت کرده اند، و آنها را برای هر دو نوع تبلیغات و به طور بالقوه تهاجمی تر ردیابی ارزشمند است. تا سال ۲۰۱۵، هر دو فروشگاه برنامه iOS و فروشگاه Google Play جمع آوری آدرس های MAC را به عنوان یک موضوع سیاست ممنوع کرده بود، اما تیک تاک هنوز قادر بود شناسه را از طریق یک راه گریز به دست دهد. مطالعه ای که <em>Journal</em> توسط مجله ذکر شده است، نشان داد که نزدیک به ۳۵۰ برنامه در فروشگاه گوگل پلی از یک راه گریز مشابه، به طور کلی برای اهداف هدف گیری تبلیغ، بهره گرفته اند. TikTok را قطع عمل در نوامبر سال گذشته ، تغییر <em>Journal</em> در سیاست مجله نسبت به افزایش فشار سیاسی از واشنگتن است. وحی در زمان ظریفی برای TikTok می آید، که با پرسش های دشوار کاخ سفید بر سر سطح دسترسی شرکت مادر چینی خود را به داده های کاربر ایالات متحده مواجه است. هفته گذشته، کاخ سفید دستور اجرایی برای قطع تمام معاملات آمریکا با این شرکت صادر کرد، در آغاز 20 سپتامبر، اگر آن زمان قادر به تکمیل فروش عملیات آمریکاخود نیست. شرکت در حال حاضر در حال گفتگو با مایکروسافت است، اما معلوم نیست که معامله تا چه حد ادامه خواهد داشت. نتایج <em>ژورنال</em> در برابر بهترین استدلال در دفاع از TikTok برش داده شده است، که سیستم هیچ اطلاعات بیشتری از یک برنامه تلفن همراه استاندارد جمع آوری نمی کند. در حالی که اغلب برای ردیابی آگهی استفاده می شود، جمع آوری آدرس MAC در میان اشکال تهاجمی تر از عمل است. برای اظهار نظر رسیده، TikTok تاکید کرد که آن را به عمل را قطع کرده است. یک نماینده گفت: «ما دائماً برنامه خود را به روز می کنیم تا با چالش های امنیتی در حال تکامل همراه باشد، و نسخه فعلی TikTok نشانی های MAC را جمع آوری نمی کند» "ما همیشه کاربران خود را تشویق می کنیم که نسخه فعلی تیک تاک را دانلود کنند." به <em><strong>روز رسانی 8:10PM ET: به </strong></em>روز شده با بیانیه ای از <em>TikTok.</em>
- شرکت صادرات و واردات کالاهای مختلف از جمله کاشی و سرامیک و ارائه دهنده خدمات ترانزیت و بارگیری دریایی و ریلی و ترخیص کالا برای کشورهای مختلف از جمله روسیه و کشورهای حوزه cis و سایر نقاط جهان - بازرگانی علی قانعی
- شرکت صادرات و واردات کالاهای مختلف از جمله کاشی و سرامیک و ارائه دهنده خدمات ترانزیت و بارگیری دریایی و ریلی و ترخیص کالا برای کشورهای مختلف از جمله روسیه و کشورهای حوزه cis و سایر نقاط جهان - بازرگانی علی قانعی