گھر خصوصیات مصنوعی ذہانت میں تعصب کا مسئلہ ہے ، اور یہ ہماری غلطی ہے

مصنوعی ذہانت میں تعصب کا مسئلہ ہے ، اور یہ ہماری غلطی ہے

فہرست کا خانہ:

ویڈیو: من زينو نهار اليوم ØµØ Ø¹ÙŠØ¯ÙƒÙ… انشر الفيديو Øتى يراه كل Ø§Ù„Ø (اکتوبر 2024)

ویڈیو: من زينو نهار اليوم ØµØ Ø¹ÙŠØ¯ÙƒÙ… انشر الفيديو Øتى يراه كل Ø§Ù„Ø (اکتوبر 2024)
Anonim

2016 میں ، بوسٹن یونیورسٹی اور مائیکروسافٹ کے محققین مصنوعی ذہانت کے الگورتھم پر کام کر رہے تھے جب انہوں نے ٹکنالوجی میں نسل پرستانہ اور جنسی پسند رجحانات کو دریافت کیا جس میں ہم ہر روز کچھ نہایت مشہور اور نازک خدمات استعمال کرتے ہیں۔ یہ انکشاف روایتی دانشمندی کے خلاف ہوا ہے کہ مصنوعی ذہانت صنف ، نسلی اور ثقافتی تعصبات سے دوچار نہیں ہے جو ہم انسان کرتے ہیں۔

محققین نے یہ انکشاف لفظ ایمبیڈنگ الگورتھم ، ایک قسم کی AI کا مطالعہ کرتے ہوئے کیا ہے جو متن کی بڑی لاشوں کا تجزیہ کرکے مختلف الفاظ کے درمیان ارتباط اور وابستگی پاتا ہے۔ مثال کے طور پر ، ایک تربیت یافتہ لفظ کو شامل کرنے والا الگورتھم سمجھ سکتا ہے کہ پھولوں کے لئے الفاظ خوشگوار احساسات سے گہرا تعلق رکھتے ہیں۔ ایک زیادہ عملی سطح پر ، لفظ شامل کرنے سے یہ بات سمجھ میں آتی ہے کہ "کمپیوٹر پروگرامنگ" کی اصطلاح کا تعلق "C ++" ، "" جاوا اسکرپٹ "اور" آبجیکٹ پر مبنی تجزیہ اور ڈیزائن "سے ہے۔ جب ریزیومین اسکیننگ درخواست میں ضم ہوجاتا ہے تو ، اس فعالیت سے آجروں کو کم کوشش کے ساتھ اہل امیدوار ڈھونڈنے دیتا ہے۔ سرچ انجنوں میں ، تلاش کے اصطلاح سے اصطلاحی طور پر متعلقہ مواد کو لا کر بہتر نتائج فراہم کرسکتے ہیں۔

بی یو اور مائیکروسافٹ کے محققین نے پایا کہ لفظ شامل کرنے والے الگورتھم میں پریشانی کا تعصب ہے ، حالانکہ "کمپیوٹر پروگرامر" کو مرد ضمیر کے ساتھ منسلک کرنا اور "گھریلو ساز" کو خواتین کے ساتھ جوڑنا۔ ان کی کھوج ، جو انہوں نے ایک تحقیقی مقالے میں شائع کی تھی جس کے عنوان سے "انسان ہے کمپیوٹر پروگرامر کے طور پر عورت کو ہوم میکر کے لئے ہے؟" اے آئی کی غیر جانبداری کے افسرانہ الزام کو ختم کرنے اور الگورتھمک تعصب پر روشنی ڈالنے کے لئے متعدد رپورٹس میں سے ایک تھی ، یہ ایک ایسا واقعہ ہے جو یگوریتھم ہمارے روزمرہ کے فیصلوں میں تیزی سے شامل ہونے کے بعد نازک جہتوں تک پہنچ رہا ہے۔

الگوریتھمک تعصب کی اصل

مشین لرننگ اور گہری سیکھنے والے الگورتھم زیادہ تر عصری AI طاقت سے چلنے والے سافٹ ویئر کی مدد کرتے ہیں۔ روایتی سافٹ وئیر کے برعکس ، جو پہلے سے طے شدہ اور تصدیق شدہ قواعد پر مبنی کام کرتا ہے ، گہری تعلیم اپنے اصول بناتی ہے اور مثال کے طور پر سیکھتی ہے۔

مثال کے طور پر ، گہری سیکھنے کی بنیاد پر تصویری شناخت کی ایپلی کیشن بنانے کے ل program ، پروگرامر الگورتھم کو لیبل لگا ہوا ڈیٹا کھلا کر "تربیت" دیتے ہیں: اس معاملے میں ، تصاویر جس چیز پر مشتمل ہیں اس کے نام کے ساتھ ٹیگ کردہ ہیں۔ ایک بار جب الگورتھم کافی مثالیں کھاتا ہے ، تو وہ اسی طرح کے لیبل والے ڈیٹا میں عام نمونوں کو اکٹھا کرسکتا ہے اور اس معلومات کو لیبل لگا نمونے کی درجہ بندی کرنے کے لئے استعمال کرسکتا ہے۔

یہ طریقہ کار بہت سارے کام انجام دینے کے لئے گہری سیکھنے کے قابل بناتا ہے جو حکمرانی پر مبنی سافٹ ویئر کے ذریعہ عملی طور پر ناممکن تھا۔ لیکن اس کا یہ مطلب بھی ہے کہ گہرائی سے سیکھنے والا سافٹ ویئر ڈھکے چھپے ہوئے یا اس سے آگے بڑھ کر تعصب کا وارث ہوسکتا ہے۔

بوسٹن یونیورسٹی کے شعبہ برقی اور کمپیوٹر انجینئرنگ میں پڑھاتے اور لفظ سرایت کرنے والے الگورتھم پر کام کرنے والے پروفیسر وینکٹیش سلیگرما کا کہنا ہے کہ "اے آئی الگورتھم فطری طور پر متعصب نہیں ہیں۔" "ان میں عصبی فعالیت ہے اور وہ ان رجحانات کو منتخب کریں گے جو پہلے سے چلنے والے ڈیٹا میں موجود ہیں۔"

بوسٹن یونیورسٹی کے محققین کے ذریعہ تجربہ کیا گیا لفظ ایمبیڈنگ الگورتھم گوگل نیوز ، ویکیپیڈیا ، اور دوسرے آن لائن ذرائع سے سیکڑوں ہزاروں مضامین پر تربیت یافتہ تھا جس میں معاشرتی تعصب کو گہرائی سے سرایت دیا گیا ہے۔ ایک مثال کے طور پر ، کیونکہ برو انڈچر ٹیک ٹیک انڈسٹری پر حاوی ہے ، اس لئے مرد نام زیادہ تر ٹیک سے وابستہ ملازمتوں کے ساتھ سامنے آتے ہیں۔ اور اس کی وجہ سے الگورتھم مردوں کو پروگرامنگ اور سوفٹ ویئر انجینئرنگ جیسی ملازمتوں سے جوڑ دیتے ہیں۔

بی یو میں پی ایچ ڈی کرنے والے آخری سال کے طالب علم ، ٹولگا بولوکباسی کا مزید کہنا تھا ، "الگورزم میں انسانی دماغ کی طاقت کو غلط سے حق کی تمیز کرنے کی طاقت نہیں ہے۔" انسان ہمارے اعمال کی اخلاقیات کا انصاف کرسکتا ہے ، یہاں تک کہ جب ہم اخلاقی اصولوں کے خلاف کام کرنے کا فیصلہ کرتے ہیں۔ لیکن الگورتھم کے ل data ، اعداد و شمار حتمی فیصلہ کرنے والا عنصر ہیں۔

اس تعصب کے بارے میں خطرے کی گھنٹی اٹھانے والے سلیگرما اور بولوکباسی پہلے نہیں تھے۔ آئی بی ایم ، مائیکروسافٹ ، اور ٹورنٹو یونیورسٹی کے محققین نے 2011 میں شائع ہونے والے ایک مقالے میں الگورتھمک امتیاز کو روکنے کی ضرورت پر زور دیا۔ اس وقت ، الگورتھمک تعصب ایک باطنی تشویش تھا ، اور گہری سیکھنے نے ابھی بھی مرکزی دھارے میں شامل ہونے کا راستہ نہیں پایا تھا۔ اگرچہ ، آج کل الگورتھمک تعصب ہمارے بہت سے کاموں پر نشان چھوڑ دیتا ہے ، جیسے کہ خبریں پڑھنا ، دوستوں کو تلاش کرنا ، آن لائن خریداری کرنا ، اور نیٹ فلکس اور یوٹیوب پر ویڈیوز دیکھنا۔

الگورتھمک تعصب کا اثر

سن 2015 میں ، گوگل کی جانب سے اس کی فوٹو اپلی کیشن کو الگ کرنے کے بعد دو سیاہ فام افراد کو گوریلا کے طور پر ٹیگ کرنے کے بعد گوگل کو معافی مانگنا پڑی - شاید اس لئے کہ اس کے تربیتی ڈیٹاسیٹ میں کالے لوگوں کی کافی تصاویر نہیں تھیں۔ 2016 میں ، خوبصورتی مقابلہ جیتنے والے 44 جیتنے والوں میں سے AI نے فیصلہ دیا ، تقریبا nearly سبھی سفید فام تھے ، کچھ ایشین تھے ، اور صرف ایک ہی سیاہ رنگ کی جلد تھی۔ ایک بار پھر ، وجہ یہ تھی کہ الگورتھم زیادہ تر سفید لوگوں کی تصاویر کے ساتھ تربیت یافتہ تھا۔

گوگل فوٹو ، آپ سب گڑبڑ ہو گئے۔ میرا دوست گوریلا نہیں ہے۔ pic.twitter.com/SMkMCsNVX4

- jackyalciné یہاں پر بہت زیادہ جواب نہیں دے رہا ہے۔ ڈی ایم (@ جیکالیسائن) 29 جون ، 2015

ابھی حال ہی میں ، آئی بی ایم اور مائیکروسافٹ کے چہرے سے متعلق تجزیہ کی خدمات کے امتحان میں معلوم ہوا ہے کہ کمپنیوں کے الگورتھم ہلکی جلد والے مردوں کی صنف کا پتہ لگانے میں لگ بھگ بے عیب تھے لیکن جب سیاہ جلد والی خواتین کی تصویر پیش کی جاتی ہے تو اکثر غلطی کی جاتی ہے۔

اگرچہ ان واقعات نے ممکنہ طور پر نہ ہونے کے برابر نقصان پہنچایا ہے ، لیکن اسی طرح کے زیادہ اہم ڈومینز ، جیسے صحت کی دیکھ بھال ، قانون نافذ کرنے والے اداروں ، اور بھرتیوں میں AI الگورتھم کے بارے میں بھی ایسا نہیں کہا جاسکتا ہے۔ 2016 میں ، پروپولیکا کی تحقیقات سے معلوم ہوا کہ COMPAS AS AI سے چلنے والا سافٹ ویئر جو مجرموں میں recidivism کے خطرے کا اندازہ کرتا ہے - رنگ برنگے لوگوں کے ساتھ متعصبانہ تھا۔ دریافت خاص طور پر اس لئے تھی کہ کچھ ریاستوں کے جج COMPAS کا استعمال اس بات کا تعین کرنے کے لئے کرتے ہیں کہ کون آزاد رہتا ہے اور کون جیل میں رہتا ہے۔

ایک اور معاملے میں ، گوگل کے اشتہاری پلیٹ فارم کا مطالعہ ، جو گہری سیکھنے والے الگورتھم کے ذریعہ چلتا ہے ، نے پایا کہ مردوں کی نسبت خواتین کو زیادہ تنخواہ دینے والی ملازمتوں کے اشتہار دکھائے جاتے ہیں۔ ایک علیحدہ مطالعہ میں لنکڈ ان کے ملازمت کے اشتہارات میں اسی طرح کا مسئلہ پایا گیا۔ ایک اور شخص نے یہ ظاہر کیا کہ متعصبانہ خدمات حاصل کرنے والے الگورتھم میں 50 فیصد زیادہ کسی ایسے فرد کو انٹرویو کی دعوت بھیجنے کا امکان ہے جس کا نام یورپی امریکی تھا ، افریقی نژاد امریکی نام والے شخص کے مقابلے میں۔

قرضوں کی منظوری ، کریڈٹ ریٹنگ ، اور اسکالرشپ جیسے علاقوں کو اسی طرح کے خطرات کا سامنا کرنا پڑتا ہے۔

الگورتھمک تعصب مزید پریشان کن ہے کیوں کہ یہ معاشرتی تعصب کو کیسے بڑھا سکتا ہے۔ اس سراب کے تحت کہ اے آئی سرد ہے ، ریاضی کا حساب کتاب تعصب یا تعصب سے خالی ہے ، انسان اس پر سوال کیے بغیر الگورتھمک فیصلے پر بھروسہ کرسکتے ہیں۔

وائرڈ یوکے کو دیئے گئے ایک انٹرویو میں ، ایڈنبرگ نیپئر یونیورسٹی کے ماہر قانون جرمی کے لیکچرر اینڈریو واوف نے مشاہدہ کیا کہ پولیسنگ کی "وقتی دباؤ ، وسائل سے بھرپور" دنیا قانون نافذ کرنے والے افسران کو الگورتھم فیصلوں پر بہت زیادہ انحصار کرنے کا سبب بن سکتی ہے۔ انہوں نے کہا ، "میں اس صورتحال کا تصور کرسکتا ہوں جہاں پولیس افسر اپنے فیصلے سازی کے عمل سے زیادہ نظام پر انحصار کرسکتا ہے۔" "جزوی طور پر ایسا ہوسکتا ہے تاکہ جب کوئی غلطی ہو تو آپ کسی فیصلے کو جواز بناسکیں۔"

متعصب الگورتھم پر انحصار کرنے سے رائے پیدا ہوجاتی ہے: ہم ایسے فیصلے کرتے ہیں جس سے زیادہ متعصب اعداد و شمار تیار ہوتے ہیں جس کے بعد الگورتھم مستقبل میں تجزیہ اور تربیت حاصل کرے گا۔

اس طرح کی بات پہلے ہی سوشل میڈیا نیٹ ورکس جیسے فیس بک اور ٹویٹر پر ہورہی ہے۔ خبروں کو چلانے والے الگورتھم "فلٹر بلبلوں" تخلیق کرتے ہیں ، جو ایسا مواد دکھاتے ہیں جو صارفین کی ترجیحات اور تعصبات کے مطابق ہوتا ہے۔ اس سے وہ مخالف نظریات کی رو سے کم روادار ہوسکتے ہیں اور سیاسی اور معاشرتی تفرقے کو ختم کرکے معاشرے کو مزید پولرائز کرسکتے ہیں۔

مائیکرو سافٹ کے سینئر محقق جین وورٹمین وان کہتے ہیں ، "الگوریتھمک تعصب کسی بھی گروپ کو ممکنہ طور پر متاثر کرسکتا ہے۔" "اعداد و شمار میں نمائندگی کرنے والے گروپ خاص طور پر خطرہ میں ہوسکتے ہیں۔"

ڈومینز جو تعصب کے لئے پہلے ہی جانا جاتا ہے ، جیسے ٹیک انڈسٹری کی خواتین کے خلاف نسلی امتیاز ، AI الگورتھم ان تعصب کو بڑھاوا دے سکتا ہے اور اس کے نتیجے میں ان گروہوں کی مزید پسماندگی کا سبب بن سکتا ہے جن کی نمائندگی نہیں کی جاتی ہے۔

وورٹ مین نے بتایا کہ صحت ایک اور اہم ڈومین ہے۔ "اگر طبی تشخیص کے لئے استعمال ہونے والی مشینری سیکھنے الگورتھم کو ایک آبادی کے اعداد و شمار پر تربیت دی جائے اور اس کے نتیجے میں دوسروں کی کارکردگی بہتر بنانے میں ناکام ہوجائے تو یہ سنگین پریشانیوں کا باعث بن سکتا ہے۔"

تعصب زیادہ لطیف طریقوں سے بھی مؤثر ثابت ہوسکتا ہے۔ "گذشتہ سال میں اپنی بیٹی کو بال کٹوانے کے ل take لے جانے کا ارادہ کر رہا تھا اور پریرتا کے لئے 'چھوٹا بچ haہ کٹوانے' کی تصاویر کے لئے آن لائن تلاش کیا۔ لیکن واپس کی گئی تصاویر میں تقریبا all تمام سفید فام بچے تھے ، بنیادی طور پر سیدھے بالوں والے ، اور زیادہ حیرت کی بات یہ ہے کہ بنیادی طور پر لڑکے ہیں۔

ماہرین اس رجحان کو "نمائشی نقصان" کہتے ہیں: جب ٹکنالوجی دقیانوسی تصورات کو تقویت بخشتی ہے یا مخصوص گروہوں کو کم کرتی ہے۔ وورٹ مین کا کہنا ہے کہ "اس طرح کے تعصب کے درست اثرات کی پیمائش کرنا یا اس کی پیمائش کرنا مشکل ہے ، لیکن اس کا مطلب یہ نہیں کہ یہ اہم نہیں ہے۔"

AI الگورتھم سے تعصب کو ہٹانا

اے آئی تعصب کے بڑھتے ہوئے تنقیدی مضمرات نے متعدد تنظیموں اور سرکاری اداروں کی توجہ مبذول کرلی ہے ، اور مختلف شعبوں میں اے آئی کے استعمال سے متعلق اخلاقی اور معاشرتی امور کو دور کرنے کے لئے کچھ مثبت اقدامات اٹھائے جارہے ہیں۔

مائیکروسافٹ ، جس کی مصنوعات پر AI الگورتھم پر بہت زیادہ انحصار کرتے ہیں ، نے تین سال قبل AI (FATE) میں فیئرنس ، احتساب ، شفافیت ، اور اخلاقیات کے نام سے ایک تحقیقی پروجیکٹ شروع کیا تھا جس کا مقصد صارفین کو بغیر کسی امتیاز کے AI کی طاقت سے چلنے والی خدمات کی بہتر بصیرت اور کارکردگی سے لطف اندوز کرنے کے قابل بنانا ہے۔ تعصب

کچھ معاملات میں ، جیسے AI-Adudised خوبصورتی مقابلہ ، کسی AI الگورتھم کے متعصبانہ سلوک کا منبع ڈھونڈنا اور درست کرنا اتنا ہی آسان ہوسکتا ہے جتنا تربیت ڈیٹاسیٹ میں فوٹو چیک کرنا اور تبدیل کرنا۔ لیکن دوسرے معاملات میں ، جیسے بوسٹن یونیورسٹی کے محققین نے لفظ سرایت کرنے والے الگورتھم کی جانچ کی ، تربیت کے اعداد و شمار کو زیادہ لطیف طریقوں سے متعصب کیا گیا ہے۔

مائکروسافٹ کے محقق ایڈم کالائی کے ساتھ شامل ہونے والی بی یو ٹیم نے لفظ صنف کو ان کی صنف کی درجہ بندی کی بنیاد پر درجہ بندی کرنے اور ایسی مماثلتوں کی شناخت کرنے کا ایک طریقہ تیار کیا جو ممکنہ طور پر متعصب ہیں۔ لیکن انہوں نے حتمی فیصلہ نہیں کیا اور ڈیٹا سے وابستہ کاموں کے لئے ایمیزون کے آن لائن بازار ، مکینیکل ترک پر 10 افراد کے ذریعہ ہر ایک مشتبہ ایسوسی ایشن چلائیں گے ، جو فیصلہ کریں گے کہ ایسوسی ایشن کو ہٹا دیا جائے یا نہیں۔

"ہم اپنے اپنے تعصب کو اس عمل میں داخل نہیں کرنا چاہتے تھے ،" بی یو کے پروفیسر اور محقق سالگرما کہتے ہیں۔ "ہم نے ابھی تکمشکل ایسوسی ایشن کو دریافت کرنے کے لئے ٹولز فراہم کیے ہیں۔ انسانوں نے حتمی فیصلہ کیا۔"

ایک حالیہ مقالے میں ، کلائی اور دوسرے محققین نے ہر ایک کے لئے یکساں اقدامات استعمال کرنے کی بجائے لوگوں کے مختلف گروہوں کی درجہ بندی کرنے کے لئے الگ الگ الگورتھم کے استعمال کی تجویز پیش کی۔ یہ طریقہ ڈومینز میں موثر ثابت ہوسکتا ہے جہاں پہلے سے موجود ڈیٹا پہلے ہی کسی مخصوص گروپ کے حق میں متعصب ہوتا ہے۔ مثال کے طور پر ، الگورتھم جو پروگرامنگ ملازمت کے ل female خواتین درخواست دہندگان کا جائزہ لیتے ہیں وہ ایسے معیارات کا استعمال کریں گے جو اس گروپ کے ل data ڈیٹا کے وسیع تر سیٹ کو استعمال کرنے کی بجائے جو موجودہ تعصب سے دل کی گہرائیوں سے متاثر ہیں کو استعمال کریں گے۔

مائیکروسافٹ کے وورٹ مین نے الگورتھم میں تعصب سے لڑنے کے لئے اے آئی کی صنعت میں شمولیت کو ایک ضروری اقدام کے طور پر دیکھا ہے۔ "اگر ہم چاہتے ہیں کہ ہمارے اے آئی سسٹم ہر ایک کے لئے کارآمد ہوں اور نہ صرف کچھ آبادیاتی اشراف ، بلکہ کمپنیوں کو اے آئی پر کام کرنے کے لئے متنوع ٹیموں کی خدمات حاصل کرنے کی ضرورت ہے۔"

2006 میں ، وورٹ مین نے ویمن ان مشین لرننگ (ڈبلیو ای ایم ایل) کی تلاش میں مدد کی ، جو ایک سالانہ ورکشاپ کا انعقاد کرتی ہے جس میں اے آئی کی صنعت میں تعلیم حاصل کرنے والی اور کام کرنے والی خواتین مل سکتی ہیں ، نیٹ ورک کرسکتی ہیں ، خیالات کا تبادلہ کرسکتی ہیں ، اور صنعت اور اکیڈمیا کی سینئر خواتین کے ساتھ پینل ڈسکشن میں شرکت کرسکتی ہیں۔ اسی طرح کی ایک کوشش آئی ای ورکشاپ میں نیا بلیک ہے ، جو مائیکرو سافٹ کے ایک اور محقق ، ٹمنیٹ گیبرو نے قائم کیا ، جس کا مقصد اے آئی میں مزید متنوع صلاحیتوں کو استوار کرنا ہے۔

بوسٹن یونیورسٹی کے بولوکباسی نے بھی AI الگورتھم کے مسئلے حل کرنے کے طریقے میں ردوبدل کی تجویز پیش کی ہے۔ "الگورتھم ایک قاعدہ سیٹ کا انتخاب کریں گے جو ان کے مقصد کو زیادہ سے زیادہ کرتا ہے۔ دیئے گئے ان پٹ آؤٹ پٹ کے جوڑے کے لئے اسی نتیجے پر پہنچنے کے بہت سارے راستے ہوسکتے ہیں ،" وہ کہتے ہیں۔ "انسانوں کے لئے متعدد انتخابی امتحانوں کی مثال لیں۔ غلط سوچ کے عمل سے کوئی صحیح جواب تک پہنچا سکتا ہے ، لیکن اس کے باوجود ایک ہی اسکور حاصل کرسکتا ہے۔ اس اثر کو کم کرنے کے لئے ایک اعلی معیار کا امتحان بننا چاہئے ، جس سے صرف لوگوں کو ہی صحیح معنوں میں مدد مل سکے گی۔ صحیح اسکور حاصل کرنے کے ل subject مضمون کو جانیں ۔سماجی رکاوٹوں کے بارے میں الگورتھم کو آگاہ کرنا اس مثال کے مطابق (اگرچہ ایک عین مطابق نہیں) دیکھا جاسکتا ہے ، جہاں ایک غلط قاعدہ سیٹ سیکھنے کو مقصد میں سزا دی جاتی ہے ۔یہ ایک جاری اور چیلنجنگ تحقیق ہے۔ موضوع."

اے آئی کی دھندلا پن نے میلوں کو پیچیدہ کردیا

اے آئی الگورتھم فیئر بنانے کی راہ میں کھڑا ایک اور چیلنج "بلیک باکس" رجحان ہے۔ بہت سے معاملات میں ، کمپنیاں بڑی آسانی کے ساتھ اپنے الگورتھم کی حفاظت کرتی ہیں: مثال کے طور پر ، جرمی کی پیش گوئی کرنے والے سافٹ ویئر کمپنی ، COMPAS کے کارخانہ دار نارتھ پوائنٹ انکارپوریٹڈ نے اپنے ملکیتی الگورتھم کے انکشاف کرنے سے انکار کردیا ہے۔ صرف COMPAS کی اندرونی کاموں سے پرہیز کرنے والے لوگ اس کے پروگرامر ہیں ، جج اسے فیصلہ سنانے کے لئے استعمال نہیں کرتے ہیں۔

کارپوریٹ رازداری کے علاوہ ، AI الگورتھم بعض اوقات اتنے مجرم ہوجاتے ہیں کہ ان کے فیصلوں کی وجوہات اور طریقہ کار ان کے تخلیق کاروں کو بھی شامل کردیتے ہیں۔ برطانیہ میں ، ڈرہم پولیس اے آئی سسٹم ہارٹ کا استعمال اس بات کا تعین کرنے کے لئے کرتی ہے کہ آیا مشتبہ افراد کو دو سال کی مدت کے اندر اندر مزید جرائم کا ارتکاب کرنے کا کم ، اعتدال پسند ، یا زیادہ خطرہ ہے۔ لیکن ہارٹ کے 2017 کے تعلیمی جائزے نے دیکھا ہے کہ "دھندلاپن سے بچنا مشکل لگتا ہے۔" یہ جزوی طور پر اس کی وجہ سے ہے کہ سسٹم استعمال کرتی ہے اور اس کے اعداد و شمار کی مختلف مقدار ہے جس کی وجہ سے اس کے فیصلوں کی وجوہات کا تجزیہ کرنا مشکل ہوجاتا ہے۔ "ان تفصیلات کو عوام کے لئے آزادانہ طور پر دستیاب کیا جاسکتا ہے ، لیکن مکمل طور پر سمجھنے کے لئے بہت زیادہ وقت اور مشقت درکار ہوگی۔"

مشینیں سیکھنے والے الگورتھم کے سلوک کو آؤٹ پٹ کوالٹی کی قربانی دیئے بغیر سمجھنے کے ل an ، گلاس بوکس لانچ کرنے والی ، گوگل سمیت ای آئی میں شفافیت لانے کے لئے متعدد کمپنیاں اور تنظیمیں کوششیں کررہی ہیں۔ ڈیفنس ایڈوانس ریسرچ پروجیکٹس ایجنسی (DARPA) ، جو فوج میں AI کے استعمال کی نگرانی کرتی ہے ، اے آئی الگورتھم کو اپنے فیصلوں کی وضاحت کرنے کے قابل بنانے کی ایک کوشش کو بھی فنڈ فراہم کررہی ہے۔

دوسرے معاملات میں ، تعصب سے نمٹنے میں انسانی فیصلہ کلیدی ثابت ہوگا۔ موجودہ نسلی اور معاشرتی انسانی تعصبات کو ایچ آر ٹی کے الگورتھم میں جانے سے روکنے کے لئے ، ڈرہم کانسٹیبلری نے اپنے عملے کے ممبروں کو لاشعوری تعصب کے گرد آگاہی سیشن فراہم کیا۔ پولیس فورس نے نسلی خصلت جیسے ڈیٹا پوائنٹس کو دور کرنے کے لئے بھی اقدامات اٹھائے ہیں ، جو متعصبانہ فیصلوں کی بنیاد پیدا کرسکتے ہیں۔

انسانی ذمہ داری

مختلف نقطہ نظر سے ، AI الگورتھم ہمارے اپنے تعصبات اور تعصبات پر غور کرنے کا موقع فراہم کرسکتے ہیں۔ آکسفورڈ یونیورسٹی میں اعداد و شمار کی اخلاقیات اور الگورتھم کی ایک محقق ، سینڈرا واٹر ، نے "گارڈین" کو بتایا ، "دنیا متعصب ہے ، تاریخی اعداد و شمار متعصب ہیں ، لہذا یہ تعجب کی بات نہیں ہے کہ ہم متعصبانہ نتائج حاصل کرتے ہیں۔"

واچٹر لندن میں ایلن ٹورنگ انسٹی ٹیوٹ اور آکسفورڈ یونیورسٹی کی تحقیقاتی ٹیم کا حصہ ہیں ، جس نے ایک مقالہ شائع کیا تھا جس میں قواعد و ضوابط اور اداروں سے مطالبہ کیا گیا تھا کہ وہ AI الگورتھم کے ذریعہ ممکنہ امتیاز کی تحقیقات کرے۔

دی گارڈین سے بات کرتے ہوئے ، باتھ یونیورسٹی کے کمپیوٹر سائنس دان اور الگوریتھمک تعصب سے متعلق ایک تحقیقی مقالے کے شریک ، جوانا براسن نے کہا ، "بہت سارے لوگ یہ ظاہر کررہے ہیں کہ AI تعصب کا شکار ہے۔ یہ ہم ظاہر کررہے ہیں 'تعصب کا شکار ہیں اور یہ کہ یہ سیکھ رہا ہے۔ "

مائیکرو سافٹ نے سن 2016 میں ٹائی نامی ایک ٹویٹر لانچ کیا تھا جس میں انسانوں سے سبق سیکھنے اور سمارٹ گفتگو میں مصروف ہونا تھا۔ لیکن ٹائی کے آغاز کے 24 گھنٹوں کے اندر ہی ، مائیکرو سافٹ کو نسل پرست تبصرے شروع کرنے کے بعد اسے بند کرنا پڑا ، جس نے اسے ٹویٹر صارفین کے ساتھ اپنی گفتگو سے اٹھا لیا۔ شاید یہ ایک یاد دہانی ہے کہ یہ ماضی کا وقت ہے جب ہم انسان الگورتھمک تعصب کے مظہر کی تعیین اور تبلیغ میں ہمارے اپنے کردار کو تسلیم کرتے ہیں اور اس کے اثرات کو ختم کرنے کے لئے اجتماعی اقدامات اٹھاتے ہیں۔

"یہ ایک بہت ہی پیچیدہ کام ہے ، لیکن یہ ایک ذمہ داری ہے کہ ہم بحیثیت معاشرے کو بھی اس سے باز نہیں آنا چاہئے۔"

مصنوعی ذہانت میں تعصب کا مسئلہ ہے ، اور یہ ہماری غلطی ہے