گھر آراء اوپنائی کی جعلی خبروں کے انتباہات نے اصل جعلی خبروں کو کس طرح متحرک کیا

اوپنائی کی جعلی خبروں کے انتباہات نے اصل جعلی خبروں کو کس طرح متحرک کیا

فہرست کا خانہ:

ویڈیو: آیت الکرسی Ú©ÛŒ ایسی تلاوت آپ Ù†Û’ شاید پہلے@ کبهی نہ سنی هوU (اکتوبر 2024)

ویڈیو: آیت الکرسی Ú©ÛŒ ایسی تلاوت آپ Ù†Û’ شاید پہلے@ کبهی نہ سنی هوU (اکتوبر 2024)
Anonim

غیر منفعتی AI ریسرچ لیب اوپن اے اے آئی نے گذشتہ ماہ اے آئی کی آواز کی گھبراہٹ کی وجہ پیدا کردی جب اس نے جی پی ٹی 2 نامی ایک جدید ترین ٹیکسٹ تخلیق کرنے والا اے آئی متعارف کرایا۔ لیکن جب اس نے جی پی ٹی 2 کی کامیابیوں کا جشن منایا ، اوپن ائی اے نے اعلان کیا کہ وہ اپنے اے آئی ماڈل کو عوام کے سامنے جاری نہیں کرے گی ، اس خوف سے کہ غلط ہاتھوں میں ، جی پی ٹی 2 کو گمراہ کن خبروں کو تیار کرنا ، دوسروں کی آن لائن نقالی کرنا جیسے مذموم مقاصد کے لئے استعمال کیا جاسکتا ہے۔ ، اور سوشل میڈیا پر جعلی مواد کی تیاری کو خودکار بنانا۔

پیش قیاسی کے مطابق ، اوپن اے آئی کے اعلان نے سنسنی خیز خبروں کا ایک سیلاب پیدا کردیا ، لیکن اگرچہ کسی بھی جدید ٹیکنالوجی کو ہتھیاروں سے دوچار کیا جاسکتا ہے ، اس کے بعد بھی متن کی پیداوار میں مہارت حاصل کرنے سے پہلے اے آئی کو ابھی بہت آگے جانا ہے۔ تب بھی ، جعلی خبروں کا بحران پیدا کرنے میں متن تیار کرنے والے AI سے زیادہ لیتا ہے۔ اس روشنی میں ، اوپن اے اے کی انتباہات دبے ہوئے تھے۔

AI اور انسانی زبان

کمپیوٹر نے تاریخی طور پر انسانی زبان کو سنبھالنے کے لئے جدوجہد کی ہے۔ تحریری متن میں بہت ساری پیچیدگیاں اور باریکیاں موجود ہیں کہ ان سب کو کلاسیکی سافٹ ویئر کے قواعد میں تبدیل کرنا عملی طور پر ناممکن ہے۔ لیکن گہری سیکھنے اور عصبی نیٹ ورک میں حالیہ پیشرفت نے سافٹ ویئر تیار کرنے کے لئے مختلف نقطہ نظر کی راہ ہموار کردی ہے جو زبان سے متعلق کاموں کو سنبھال سکتے ہیں۔

گہری تعلیم نے مشین ٹرانسلیشن ، ٹیکسٹ کا خلاصہ ، سوال کا جواب دینے اور قدرتی زبان کی تخلیق جیسے شعبوں میں بہتری لائی ہے۔ یہ سافٹ ویئر انجینئرز کو الگورتھم بنانے کی اجازت دیتا ہے جو بہت ساری مثالوں کا تجزیہ کرکے اپنا طرز عمل تیار کرتا ہے۔ زبان سے متعلقہ کاموں کے ل engine ، انجینئر اعصابی نیٹ ورک کو ڈیجیٹائزڈ مواد جیسے کہانیاں ، ویکیپیڈیا کے صفحات ، اور سوشل میڈیا پوسٹوں کو کھاتے ہیں۔ اعصابی جال احتیاط سے اعداد و شمار کا موازنہ کرتے ہیں اور نوٹ کرتے ہیں کہ بعض الفاظ دوسرے ہونے کی ترتیب میں دوسروں کی پیروی کرتے ہیں۔ اس کے بعد وہ ان نمونوں کو پیچیدہ ریاضیاتی مساوات میں بدل دیتے ہیں جو زبان سے متعلق کاموں کو حل کرنے میں ان کی مدد کرتے ہیں جیسے متن کے تسلسل میں گمشدہ الفاظ کی پیش گوئی کرنا۔ عمومی طور پر ، آپ گہری سیکھنے والے ماڈل کو جتنا زیادہ معیاری ٹریننگ ڈیٹا فراہم کرتے ہیں ، وہ اپنے کام کو انجام دینے میں اتنا ہی بہتر ہوتا جاتا ہے۔

اوپنآئی کے مطابق ، جی پی ٹی 2 کو 8 ملین ویب صفحات اور اربوں الفاظ کی تربیت دی گئی ہے ، جو دوسرے ، ملتے جلتے ماڈلز کے مقابلے میں کہیں زیادہ ہے۔ یہ متن کے نمونوں کو بہتر طور پر لاگو کرنے کے لئے جدید ترین اے آئی ماڈل کا استعمال بھی کرتا ہے۔ جی پی ٹی 2 سے نمونہ آؤٹ پٹ ظاہر کرتا ہے کہ ماڈل اپنے پیشروؤں کے مقابلے میں متن کے لمبی تسلسل میں ہم آہنگی برقرار رکھنے کا انتظام کرتا ہے۔

لیکن اگرچہ جی پی ٹی 2 قدرتی زبان کی نسل کے میدان میں ایک قدم آگے ہے ، لیکن یہ اے آئی کی تشکیل کی طرف تکنیکی اعتبار نہیں ہے جو تحریری متن کے معنی اور سیاق و سباق کو سمجھے۔ جی پی ٹی 2 ابھی بھی الفاظ کے تسلسل کی تخلیق کے ل al الگورتھم کو ملازمت دے رہا ہے جو اعدادوشمار کے مطابق اربوں متن کے اقتباسات سے ملتے جلتے ہیں جو اس نے پہلے دیکھا ہے۔ اسے اس بات کا قطعی اندازہ نہیں ہے کہ وہ کیا پیدا کررہا ہے۔

گہرائی سے تجزیہ کرتے ہوئے ، زیڈ نیٹ کے ٹیرنن رے نے بہت سے واقعات کی طرف اشارہ کیا جہاں جی پی ٹی 2 کے آؤٹ پٹ نمونے اپنی مصنوعی نوعیت کے ساتھ معروف نمونے کے ساتھ دغا دیتے ہیں جیسے اصطلاحات کی نقل اور حقائق میں منطق اور مستقل مزاجی کی کمی۔ رے نوٹ کرتے ہیں ، "جب جی پی ٹی 2 تحریر سے نمٹنے کے لئے آگے بڑھتا ہے جس میں نظریات اور منطق کی زیادہ ترقی کی ضرورت ہوتی ہے تو ، دراڑیں بالکل وسیع ہوجاتی ہیں۔"

اعدادوشمار کی تعلیم سے کمپیوٹر کو متن تیار کرنے میں مدد مل سکتی ہے جو گرائمری طور پر درست ہے ، لیکن منطقی اور حقیقت پسندانہ مستقل مزاجی کو برقرار رکھنے کے لئے ایک گہری خیالی تفہیم درکار ہے۔ بدقسمتی سے ، یہ اب بھی ایک چیلنج ہے جس پر AI کے موجودہ امتزاج نے قابو نہیں پایا۔ اسی لئے GPT-2 متن کے عمدہ پیراگراف تیار کرسکتا ہے لیکن ممکن ہے کہ کسی مستند لانگفارم آرٹیکل کو تیار کیا جا someone یا کسی کو کسی قابل اعتماد طریقے سے اور ایک وسیع و عریض مدت میں نقالی بنا لیا جائے۔

کیوں AI فیک نیوز کی گھبراہٹ دبے ہوئے ہیں

اوپن اے آئی کی استدلال کے ساتھ ایک اور مسئلہ: یہ فرض کیا گیا ہے کہ اے آئی ایک جعلی خبروں کا بحران پیدا کرسکتا ہے۔

سن 2016 میں ، مقدونیائی نوجوانوں کے ایک گروپ نے لاکھوں لوگوں میں امریکی صدارتی انتخابات کے بارے میں جعلی خبریں پھیلائیں۔ ستم ظریفی یہ ہے کہ ان کے پاس انگریزی کی مناسب مہارت بھی نہیں تھی۔ وہ اپنی کہانیاں ویب پر ڈھونڈ رہے تھے اور ایک دوسرے کے ساتھ مختلف مضامین سلائی کر رہے تھے۔ وہ کامیاب رہے کیونکہ انہوں نے ایسی ویب سائٹیں بنائیں جو کافی مستند نظر آئیں تاکہ زائرین کو اعتماد کے لئے قابل اعتماد ذرائع کے طور پر ان پر اعتماد کریں۔ سنسنی خیز سرخیاں ، غفلت بخش سوشل میڈیا صارفین ، اور ٹرینڈنگ الگورتھم نے باقی کام کیا۔

اس کے بعد 2017 میں ، قطری سرکاری سطح پر چلنے والی نیوز ویب سائٹوں اور سرکاری سوشل میڈیا اکاؤنٹس کو ہیک کرکے اور قطر کے امیر شیخ تمیم بن حماد آل تھانوی کی طرف سے جعلی تبصرے شائع کرکے خلیج فارس کے خطے میں بدنیتی پر مبنی اداکاروں نے سفارتی بحران پیدا کردیا۔

جیسا کہ ان کہانیاں ظاہر کرتی ہیں ، جعلی خبروں کی مہمات کی کامیابی کا اعتماد قائم کرنے (اور دھوکہ دہی) پر منحصر ہے ، نہ کہ انگریزی کے متعدد متن کو بڑی مقدار میں پیدا کرنے پر۔

سوشل میڈیا پر پوسٹ کرنے کے لئے جعلی مواد کی تیاری کو خود کار بنانے کے بارے میں اوپنآئی کی انتباہات کی زیادہ تر توثیق ہے ، کیوں کہ روایتی میڈیا آؤٹ لیٹوں کے مقابلے میں سوشل نیٹ ورک میں پیمانے اور حجم کا زیادہ اہم کردار ہے۔ مفروضہ یہ ہے کہ جی پی ٹی 2 جیسی اے آئی ، مخصوص موضوع کے بارے میں لاکھوں منفرد پوسٹس کے ذریعے سوشل میڈیا پر سیلاب کرنے کے قابل ہو گی ، جس سے رجحان سازی الگورتھم اور عوامی مباحثے کو متاثر کیا جاسکتا ہے۔

لیکن پھر بھی ، انتباہات حقیقت سے کم ہیں۔ پچھلے کچھ سالوں میں ، سوشل میڈیا کمپنیاں خودکار سلوک کا پتہ لگانے اور روکنے کے ل capabilities مستقل صلاحیتیں تیار کررہی ہیں۔ لہذا متن تیار کرنے والے اے آئی سے لیس بدنصیبی اداکار کو انفرادی مواد پیدا کرنے سے ہٹ کر متعدد چیلنجوں پر قابو پانا ہوگا۔

مثال کے طور پر ، انہیں ہزاروں جعلی سوشل میڈیا اکاؤنٹس کی ضرورت ہوگی جس میں ان کے ذریعے تیار کردہ مواد شائع کیا جائے۔ یہاں تک کہ سختی سے ، یہ بھی یقینی بنانا کہ جعلی اکاؤنٹس کو مربوط کرنے کا کوئی طریقہ نہیں ہے ، انہیں ہر اکاؤنٹ کے لئے ایک انوکھا ڈیوائس اور آئی پی ایڈریس درکار ہوگا۔

یہ زیادہ خراب ہوتا ہے: مماثلت کو کم کرنے کے ل The ، اکاؤنٹس کو مختلف اوقات میں ، ممکنہ طور پر ایک سال یا اس سے زیادہ عرصے میں بنانا ہوگا۔ پچھلے سال ، نیو یارک ٹائمز کی تفتیش سے معلوم ہوا ہے کہ اکیلے اکاؤنٹ بنانے سے ہی بوٹ اکاؤنٹس کو دریافت کرنے میں مدد مل سکتی ہے۔ تب دوسرے صارفین اور پولیسنگ الگورتھم سے اپنی خود کار نوعیت کو مزید چھپانے کے ل the ، اکاؤنٹس کو انسان جیسے طرز عمل سے مشغول ہونا پڑے گا ، جیسے دوسرے صارفین کے ساتھ بات چیت کرنا اور اپنی پوسٹوں میں انوکھا لہجہ ترتیب دینا۔

ان میں سے کسی بھی چیلنج پر قابو پانا ناممکن نہیں ہے ، لیکن وہ یہ ظاہر کرتے ہیں کہ سوشل میڈیا جعلی نیوز مہم میں انجام دینے کے لئے درکار کوششوں کا مواد کا صرف ایک حصہ ہے۔ اور ایک بار پھر ، اعتماد ایک اہم کردار ادا کرتا ہے۔ کچھ جعلی خبروں کی پوسٹیں لگانے والے کچھ قابل اعتماد سوشل میڈیا اثر و رسوخ رکھنے والوں پر بڑے پیمانے پر مواد تیار کرنے والے نامعلوم اکاؤنٹس کے ایک گروپ سے زیادہ اثر پڑے گا۔

اوپن اے آئی کے انتباہات کے دفاع میں

اوپن اے آئی کی مبالغہ آمیز انتباہات نے میڈیا ہائپ اور خوف و ہراس کا ایک ایسا عمل شروع کیا ، جو ستم ظریفی طور پر ، جعلی خبروں پر ہی پابند ہے ، جس سے مشہور اے آئی ماہرین کی تنقید ہوئی ہے۔

انہوں نے پریس ممنوعہ کے ساتھ ، نتائج تک جلد رسائی حاصل کرنے کے لئے میڈیا لوگوں کو دعوت دی تاکہ یہ سب ایک ہی دن عام ہو گیا۔ مجھے معلوم ہے کہ کسی محقق نے بڑے ماڈل کو نہیں دیکھا ، لیکن صحافیوں نے ایسا ہی کیا۔ ہاں ، انہوں نے جان بوجھ کر اسے اڑا دیا۔

- میٹ گارڈنر (nlpmattg) 19 فروری ، 2019

ہر نئے انسان کو ممکنہ طور پر جعلی خبریں پیدا کرنے ، سازش کے نظریات پھیلانے اور لوگوں کو متاثر کرنے کے لئے استعمال کیا جاسکتا ہے۔

کیا ہمیں پھر بچے بنانا چھوڑنا چاہئے؟

- یان لیکون (@ یلیکون) 19 فروری ، 2019

بس آپ سب کو سر کرنا چاہتے تھے ، ہماری لیب کو زبان کی تفہیم میں حیرت انگیز پیشرفت ملی۔ لیکن ہم یہ بھی فکر کرتے ہیں کہ یہ غلط ہاتھوں میں آجائے گی۔ لہذا ہم نے اس کو ختم کرنے اور اس کے بجائے باقاعدہ * ACL چیزیں شائع کرنے کا فیصلہ کیا ہے۔ ان کے عظیم کام پر ٹیم کے لئے بڑا احترام۔

- ((((؟ () (؟ () 'یوآوا)))) (@ ویوگو) 15 فروری ، 2019

زاکری لیپٹن ، اے آئی کے محقق اور تقریبا صحیح کے ایڈیٹر نے اوپن ٹائی کی تاریخ کی طرف اشارہ کیا کہ "ان کے بلاگ کو استعمال کرنا اور عوامی نقطہ نظر میں کیٹپلٹ کے غیر یقینی کام کی طرف توجہ دینا ، اور اکثر ایسے کام کے انسانی تحفظ کے پہلوؤں کو بجھانا جن میں ابھی دانشورانہ صلاحیت موجود نہیں ہے۔ ٹانگوں پر کھڑے ہونے کے لئے. "

اگرچہ اس کے گمراہ کن تبصرے کے نتیجے میں اوپن اے آئی تمام تر تنقید اور حرارت کا مستحق ہے ، لیکن اپنی ٹیکنالوجی کے ممکنہ بدنیتی پر مبنی استعمال کے بارے میں حقیقی طور پر پریشان ہونا بھی درست ہے ، یہاں تک کہ اگر کمپنی اس کے بارے میں لوگوں کو آگاہ کرنے کے لئے غیر ذمہ دارانہ طریقہ استعمال کرتی ہے۔

  • اخلاقی حساب کتابت کا AI انڈسٹری کا سال اخلاقی حساب کتاب کا AI انڈسٹری کا سال
  • غیر منصفانہ فائدہ: یہ توقع مت کرو کہ اے آئی کسی انسان کی طرح کھیلنا چاہے غیر منصفانہ فائدہ: امید نہ کرو کہ اے آئی انسان کی طرح کھیلے گا
  • اس AI کی پیش گوئی ہے آن لائن ٹرولنگ اس سے پہلے کہ یہ ہوتا ہے اس AI کی پیش گوئی ہے آن لائن ٹرولنگ ہونے سے پہلے

پچھلے سالوں میں ، ہم نے دیکھا ہے کہ کس طرح عی ٹکنالوجیوں نے بغیر سوچے سمجھے اور عکاسی کے عوام کو عام کیا ہے اور بدنیتی پر مبنی ارادوں کے لئے ہتھیاروں کا استعمال کیا جاسکتا ہے۔ اس کی ایک مثال فیک ایپ تھی ، ایک اے آئی کی ایپلی کیشن جو ویڈیوز میں چہروں کو بدل سکتی ہے۔ فیک ایپ کے اجراء کے فورا بعد ہی ، یہ جعلی فحش ویڈیوز بنانے کے لئے استعمال ہوا تھا جس میں مشہور شخصیات اور سیاستدان شامل تھے ، جس سے AI طاقت سے چلنے والی جعلسازی کے خطرہ پر تشویش پائی جاتی تھی۔

اوپن اے آئی کے فیصلے سے ظاہر ہوتا ہے کہ ہمیں عوامی طور پر جاری کی جانے والی ٹکنالوجی کے ممکنہ رموز کو روکنے اور اس کے بارے میں سوچنے کی ضرورت ہے۔ اور ہمیں اے آئی ٹیکنالوجیز کے خطرات کے بارے میں مزید فعال گفتگو کرنے کی ضرورت ہے۔

"ایک خاص منصوبے کو روکنے والی ایک تنظیم واقعی کسی طویل المیعاد کو تبدیل کرنے والی نہیں ہے۔ لیکن اوپن اے اے آئی کو ان کے ہر کام پر بہت زیادہ توجہ مل جاتی ہے… اور میں سمجھتا ہوں کہ اس مسئلے پر روشنی ڈالنے پر ان کی تعریف کی جانی چاہئے۔" ایم آئی ٹی کے کمپیوٹر سائنس اور مصنوعی ذہانت لیبارٹری (CSAIL) کے محقق ، نے سلیٹ کو بتایا۔

اوپنائی کی جعلی خبروں کے انتباہات نے اصل جعلی خبروں کو کس طرح متحرک کیا