AI کارشناسان می گویند تحقیقات به الگوریتم های که ادعا می کنند برای پیش بینی جرم و جنایت باید پایان

یک ائتلاف از هوش مصنوعی محققان داده های دانشمندان و جامعه شناسان نام علمی جهان برای جلوگیری از انتشار مطالعات که ادعا می کنند برای پیش بینی یک فرد جنایتکاری با استفاده از الگوریتم آموزش دیده در اطلاعات و صورت اسکن و جنایی آمار.

چنین کاری نه تنها از نظر علمی بی سواد می گوید: ائتلاف برای بحرانی تکنولوژی اما استمرار چرخه از تعصب در برابر مردم و مردم از رنگ. مطالعات متعدد نشان می دهد که سیستم عدالت رفتار این گروه بیشتر به شدت از مردم سفید, بنابراین هر گونه نرم افزار آموزش دیده در این اطلاعات به سادگی تقویت و entrenches اجتماعی تعصب و نژاد پرستی.

“اجازه دهید روشن است: هیچ راهی وجود دارد به منظور توسعه یک سیستم است که می تواند پیش بینی کند و یا شناسایی ‘جنایت’ است که به لحاظ نژادی مغرضانه — از آنجا که این دسته از ‘جنایت’ خود را با نژاد مغرضانه” نوشتن ، “تحقیقات از این طبیعت — و همراه آن ادعا می کند به دقت — استراحت در این فرض که داده ها مورد جنایی بازداشت و محکومیت می تواند به عنوان قابل اعتماد و بی طرف از شاخص های اساسی فعالیت های جنایی. هنوز این پرونده به دور از خنثی است.”

نامه سرگشاده ای نوشته شده توسط ائتلاف فراخوانده شد در پاسخ به خبری که اسپرینگر, بزرگترین ناشر کتابهای دانشگاهی, برنامه ریزی برای انتشار چنین مطالعه است. این نامه که در حال حاضر توسط امضا شده است 1,700 کارشناسان, تماس, در, Springer, برای باطل ساختن کاغذ و برای دیگر ناشران دانشگاهی به خودداری از انتشار کار مشابه در آینده است.

“در زمانی که مشروعیت carceral دولت و پلیس در خاص است که چالش اساسی در زمینه در ایالات متحده وجود تقاضای بالا در اجرای قانون برای تحقیق از این طبیعت” نوشتن ، “گردش این کار توسط یک ناشر بزرگ مانند Springer خواهد نشان دهنده یک گام مهم به سمت مشروعیت و استفاده از بارها و بارها افشا و خنثی اجتماعی مضر پژوهش در دنیای واقعی است.”

در این مطالعه در سوال با عنوان “یک مدل شبکه عصبی برای پیش بینی جرم و جنایت با استفاده از پردازش تصویر” محققان ادعا کرد که ایجاد یک سیستم تشخیص صورت بود که “قادر به پیش بینی این که آیا کسی است که به احتمال زیاد رفتن به یک جنایتکار و … با 80 درصد دقت و بدون تعصب نژادی” با توجه به در حال حاضر حذف شده و آزادی مطبوعات. نویسنده مقاله را شامل دانشجوی دکترا و سابق NYPD افسر پلیس Jonathan W. Korn.

در پاسخ به نامه سرگشاده, Springer, گفت: آن را نمی خواهد نشر این مقاله با توجه به MIT Technology Review. “این مقاله شما با اشاره به ارسال شده بود به یک آینده کنفرانس که اسپرینگر در حال برنامه ریزی برای انتشار مجموعه مقالات” گفت: این شرکت است. “پس از کامل بررسی دقیق فرایند کاغذ رد شد.”

به عنوان ائتلاف برای بحرانی تکنولوژی روشن می سازد این حادثه تنها یک مثال در یک روند گسترده تر در اطلاعات علم و یادگیری ماشین که در آن محققان با استفاده از اجتماعی-مشروط داده ها را امتحان کنید و پیش بینی و یا طبقه بندی پیچیده رفتار انسان.

در یک مثال قابل توجه از سال 2016 محققان از شانگهای Jiao تانگ دانشگاه ادعا کرد که ایجاد یک الگوریتم است که همچنین می تواند پیش بینی جرم و جنایت از ویژگی های صورت. این مطالعه با انتقاد و رد با محققان از گوگل و پرینستون انتشارات طولانی رد و هشدار داد که هوش مصنوعی محققان بازنگری شبه علم از سیما. این بود که یک انضباط تاسیس شد و در قرن 19 توسط Cesare Lombroso که ادعا کرد او می تواند شناسایی “متولد جنایتکاران” با اندازه گیری ابعاد چهره خود را.

“زمانی که قرار دادن به عمل شبه علم از سیما می شود, شبه علم, علمی نژادپرستی” نوشت: محققان. “تحولات سریع در هوش مصنوعی و یادگیری ماشین را فعال علمی نژادپرستی برای ورود به یک عصر جدید است که در آن ماشین-آموخته مدل های جاسازی تعصبات موجود در رفتار انسان مورد استفاده برای مدل توسعه است.”

2016 مقاله همچنین نشان داد که چگونه از آن آسان است برای AI پزشکان به احمق خود را به فکر آنها در بر داشت یک هدف سیستم اندازه گیری جرم و جنایت. محققان از گوگل و پرینستون اشاره کرد که بر اساس داده های به اشتراک گذاشته شده در این مقاله همه “غیر جنایتکاران” به نظر می رسد خندان و با پوشیدن یقه پیراهن و لباس در حالی که هیچ یک از (اخم) جنایتکاران بودند. ممکن است این روش ساده و گمراه کننده بصری بود بگویید هدایت الگوریتم قرار پیچیده تجزیه و تحلیل.

ائتلاف برای بحرانی فن آوری نامه در یک زمان می آید زمانی که جنبش در سراسر جهان برجسته مسائل نژادی عدالت باعث قتل جورج فلوید توسط اجرای قانون است. این اعتراضات نیز دیده می شود عمده شرکت های با تکنولوژی جلو و عقب خود را با استفاده از تشخیص چهره سیستم های که تحقیقات توسط دانشگاهیان نشان داده است که نژاد مغرضانه.

نامه نویسندگان و امضا کنندگان تماس در AI جامعه به تجدید نظر چگونه آن را ارزیابی “خوبی” کار خود را — تفکر نه فقط در مورد معیارهای مانند صحت و دقت اما در مورد اجتماعی تاثیر چنین فن آوری می تواند در جهان است. “اگر یادگیری ماشین است که به ارمغان می آورد در مورد “اجتماعی” تبلیغ در اعطای طرح ها و مطبوعات و محققان در این فضا باید به طور فعال تأمل در ساختار قدرت (و همراه ستم) است که کار خود را ممکن است” نوشتن نویسنده است.

tinyurlis.gdu.nuclck.ruulvis.netshrtco.de

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>