چه ماشین ابزار یادگیری تبدیل می شود که اوباما سفید می تواند (و نمی تواند) به ما بگویید که در مورد هوش مصنوعی تعصب

این یک تصویر شگفت انگیز است که نشان می دهد ريشه تعصبات از هوش مصنوعی تحقیق. ورودی کم با وضوح تصویر باراک اوبام

توسط PARINEWS در 4 تیر 1399

این یک تصویر شگفت انگیز است که نشان می دهد ريشه تعصبات از هوش مصنوعی تحقیق. ورودی کم با وضوح تصویر باراک اوباما اولین رئیس جمهور سیاه پوست ایالات متحده آمریکا به یک الگوریتم طراحی شده برای تولید depixelated چهره و خروجی است که یک مرد سفید پوست.

این فقط اوباما یا. همان الگوریتم برای تولید تصاویر با وضوح بالا از بازیگر لوسی لیو و یا نماینده کنگره اسکندریه Ocasio-کورتز از وضوح پایین ورودی و در نتیجه چهره های مجزا سفید. به عنوان یکی از محبوب tweet به نقل از اوباما به عنوان مثال قرار داده و آن را: "این اثر صحبت می کند حجم در مورد خطرات ناشی از تعصب در هوش مصنوعی است."

اما چه چیزی باعث این خروجی و چه آنها واقعا به ما بگویید که در مورد هوش مصنوعی bias ؟

اول ما نیاز به یک کمی در مورد این فن آوری استفاده می شود در اینجا. برنامه تولید این تصاویر توسط یک الگوریتم به نام نبض که با استفاده از یک تکنیک شناخته شده به عنوان ارتقاء به پردازش داده های بصری. ارتقاء است مانند "زوم و افزایش" استعارههای شما ببینید در تلویزیون و فیلم, اما بر خلاف در هالیوود, واقعی نرم افزار می توانید فقط تولید اطلاعات جدید از هیچ است. به منظور به نوبه خود کم و وضوح تصویر را با وضوح بالا از یک نرم افزار برای پر کردن جاهای خالی با استفاده از یادگیری ماشین.

در مورد پالس الگوریتم انجام این کار است StyleGAN که ایجاد شده بود توسط محققان از NVIDIA. اگر چه شما ممکن است شنیده ام از StyleGAN قبل از شما احتمالا آشنا با کار خود را. این الگوریتم مسئول ساخت آن ترسناک واقعی چهره انسان را که شما می توانید در وب سایت های مانند ThisPersonDoesNotExist.com; چهره بنابراین واقع بینانه آنها اغلب استفاده می شود برای تولید جعلی پروفایل های رسانه های اجتماعی.

چه پالس می کند این است که استفاده از StyleGAN به "تصور" high-res نسخه pixelated ورودی. این کار نه با "افزایش" اصلی low-res تصویر اما با تولید کاملا جدید با وضوح بالا در صورت است که زمانی که pixelated, به نظر می رسد همان به عنوان یکی از وارد شده توسط کاربر.

این به این معنی هر depixelated تصویر می تواند upscaled در انواع راه همان راه یک مجموعه واحد از مواد باعث می شود غذاهای مختلف. این نیز به همین دلیل شما می توانید با استفاده از پالس به ببینید که چه عذاب یا قهرمان بازی Wolfenstein 3Dو یا حتی گریه emoji مانند نگاه در وضوح بالا. این نیست که الگوریتم "پیدا کردن" جدید جزئیات در تصویر همانطور که در "زوم و افزایش" استعاره; آن را به جای اختراع چهره های جدید است که بازگشت به داده های ورودی.

این نوع از کار شده است از لحاظ نظری ممکن است برای چند سال در حال حاضر, اما همانطور که اغلب مورد در هوش مصنوعی جهان آن را به مخاطبان بزرگتر که آسان برای اجرای نسخه از کد به اشتراک گذاشته آنلاین در این آخر هفته. این زمانی است که نابرابری نژادی شروع به جهش.

پالس سازندگان می گویند این روند روشن است: هنگامی که با استفاده از این الگوریتم به مقیاس pixelated, تصاویر, الگوریتم بیشتر تولید مواجه با قفقازی, ویژگی های.

"این به نظر می رسد که پالس تولید سفید چهره بسیار بیشتر از چهره افراد از رنگ" نوشت: الگوریتم سازندگان در Github. "این تعصب است که به احتمال زیاد به ارث برده از مجموعه داده StyleGAN آموزش دیده بود در [...] هر چند ممکن است عوامل دیگری که ما بی اطلاع هستند."

به عبارت دیگر به دلیل اطلاعات StyleGAN آموزش دیده بود در زمانی که این تلاش به آمده تا با چهره ای که به نظر می رسد مانند pixelated ورودی تصویر پیش فرض آن را به ویژگی های سفید.

این مشکل بسیار شایع در یادگیری ماشین و آن را یکی از دلایل الگوریتم های تشخیص صورت انجام بدتر در غیر سفید و زن مواجه است. داده های مورد استفاده برای آموزش هوش مصنوعی است که اغلب به صورت اریب به سمت یک جمعیتی از مردان سفید پوست و هنگامی که یک برنامه را می بیند داده نشده است که جمعیتی در آن انجام نشده. نه اتفاقا این مردان سفید که تسلط هوش مصنوعی تحقیق.

اما دقیقا همان چیزی است که اوباما به عنوان مثال نشان می دهد در مورد تعصب و چگونه این مشکلات نشان دهنده آن ممکن است ثابت هستند و سوالات پیچیده. در واقع آنها آنقدر پیچیده است که این تنها تصویر را برانگیخته گرم اختلاف میان AI دانشگاهیان و مهندسین و محققان.

در یک سطح فنی برخی از کارشناسان مطمئن نیستند این است که حتی یک نمونه از مجموعه داده تعصب. هوش مصنوعی هنرمند ماریو Klingemann نشان می دهد که پالس الگوریتم انتخاب خود جای داده است سرزنش می کنند. Klingemann اشاره می کند که او قادر به استفاده از StyleGAN به تولید بیشتر غیر سفید خروجی از همان pixelated اوباما در تصویر زیر نشان داده شده:

این چهره ها ایجاد شد با استفاده از "همان مفهوم و همان StyleGAN مدل" اما جستجو مختلف به روش پالس می گوید Klingemann که می گوید: ما واقعا نمی تواند قاضی یک الگوریتم از فقط چند نمونه است. "وجود دارد احتمالا میلیون ها ممکن است چهره است که همه را کاهش می دهد به همان صفحه الگو و همه آنها به همان اندازه 'درست'," او گفت: آستانه.

(این نیز به همین دلیل از ابزار مانند این بعید است که استفاده می شود برای نظارت بر اهداف. چهره های ایجاد شده توسط این فرآیند خیالی و به عنوان مثال بالا نشان می دهد باید کمی نسبت به زمین حقیقت از ورودی است. با این حال, آن را شبیه به ویژگی های نقص را متوقف کرده اند و پلیس از اتخاذ فن آوری در گذشته است.)

اما صرف نظر از علت خروجی الگوریتم مغرضانه به نظر می رسد چیزی است که محققان متوجه نیست قبل از اینکه این ابزار شد به طور گسترده ای در دسترس است. این صحبت می کند به یک متفاوت و فراگیر تر نوع تعصب: یکی که در عمل در سطح اجتماعى است.

دبورا راجی, یک پژوهشگر هوش مصنوعی پاسخگویی می گوید در آستانه این که این نوع از تعصب است که همه بیش از حد معمول در هوش مصنوعی جهان است. "با توجه به اساسی وجود از مردم از رنگ غفلت از آزمایش این وضعیت حیرت انگیز است و به احتمال زیاد نشان دهنده عدم تنوع ما برای دیدن ادامه با توجه به که می شود برای ساخت چنین سیستم هایی می گوید:" راجی. "مردم از رنگ نیست دورافتاده. ما نه 'لبه موارد' نویسندگان فقط می توانید را فراموش کرده ام."

این واقعیت است که برخی از محققان به نظر می رسد مشتاق به تنها آدرس داده طرف از تعصب مشکل این است که آنچه موجب بزرگتر استدلال در مورد اوباما تصویر. Facebook ارشد هوش مصنوعی دانشمند Yann LeCun شد flashpoint برای این گفتگو پس از به tweeting در پاسخ به تصویر و گفت که "ML سیستم های مغرضانه هنگامی که داده ها مغرضانه است" و اضافه کرد که این نوع از تعصب است به مراتب بیشتر مشکل جدی "در یک مستقر محصول از یک مقاله ی دانشگاهی." مفهوم آن این که: بیایید نگران نباشید بیش از حد در مورد این مثال خاص است.

بسیاری از محققان راجی در میان آنها صورت گرفت موضوع را با LeCun فریم اشاره به این که تعصب در هوش مصنوعی است که تحت تاثیر گسترده تر و بی عدالتی های اجتماعی و تعصبات و است که به سادگی با استفاده از "صحیح" داده نمی مقابله با بی عدالتی بزرگتر.

دیگران اشاره کرد که حتی از نقطه نظر صرفا فنی تعمیر "عادلانه" مجموعه اغلب می تواند هر چیزی اما. برای مثال یک مجموعه داده از چهره های است که با دقت منعکس جمعیتی از انگلستان خواهد بود عمدتا سفید چون انگلستان است که عمدتا سفید. یک الگوریتم آموزش دیده در این داده ها را انجام می دهد بهتر است در سفید چهره از غير چهره سفید. به عبارت دیگر "عادلانه" مجموعه هنوز هم می تواند ایجاد گرایش سیستم های. (در یک بعد موضوع را در توییتر LeCun اذعان کرد وجود دارد به علل متعدد برای AI تعصب.)

راجی می گوید آستانه او نیز شگفت زده LeCun پیشنهاد که محققان باید نگرانی در مورد تعصب کمتر از مهندسین تولید تجاری سیستم و این منعکس عدم آگاهی در بالاترین سطح میباشد.

"Yann LeCun آگهی صنعت آزمایشگاه شناخته شده برای کار بر روی بسیاری از تحقیقات کاربردی مشکلاتی که آنها به طور منظم به دنبال productize می گوید:" راجی. "من به معنای واقعی کلمه نمی توانند درک کنند که چگونه کسی که در آن موقعیت نیست اذعان نقشی که تحقیقات در تنظیم هنجارهای مهندسی اعزامهای." آستانه رسیده به LeCun نظر اما نمی دریافت پاسخ قبل از انتشار.

بسیاری از تجاری هوش مصنوعی سیستم های, برای مثال, ساخته شده به طور مستقیم از پژوهش داده ها و الگوریتم ها بدون هیچ گونه تنظیم برای نژادی یا جنسیتی و نابرابری. عدم رسیدگی به مشکل از تعصب در مرحله پژوهش فقط استمرار مشکلات موجود است.

در این معنا, سپس, ارزش, از, اوباما, تصویر نیست که آن را در معرض یک نقص در یک الگوریتم; آن است که این ارتباط در سطح بصری های فراگیر طبیعت هوش مصنوعی تعصب. آنچه در آن پنهاناین است که مشکل از تعصب می رود بسیار عمیق تر از هر گونه مجموعه داده یا الگوریتم. آن را یک موضوع فراگیر است که نیاز به مقدار بیشتر از ویژگی های رفع.

به عنوان یک پژوهشگر Vidushi Marda پاسخ در توییتر به چهره سفید تولید شده توسط الگوریتم: "در مورد آن نیاز به گفت: به صراحت - این است یک تماس برای 'تنوع' در مجموعه داده یا بهبود دقت در عملکرد - آن را به یک تماس برای یک تجدید نظر اساسی از موسسات و افراد است که طراحی و توسعه و گسترش این فن آوری در وهله اول است."



tinyurlis.gdu.nuclck.ruulvis.netshrtco.de
آخرین مطالب
مقالات مشابه
نظرات کاربرن