گھر کاروبار عی اور مشین لرننگ استحصال کرتے ہیں ، ڈیپ فیکس ، جن کا پتہ لگانا اب مشکل ہے

عی اور مشین لرننگ استحصال کرتے ہیں ، ڈیپ فیکس ، جن کا پتہ لگانا اب مشکل ہے

فہرست کا خانہ:

ویڈیو: دس فنی لمØات جس ميں لوگوں Ú©ÛŒ کيسے دوڑيں لگتی ہيں ™,999 فنی (اکتوبر 2024)

ویڈیو: دس فنی لمØات جس ميں لوگوں Ú©ÛŒ کيسے دوڑيں لگتی ہيں ™,999 فنی (اکتوبر 2024)
Anonim

جب ہم اگلے صدارتی انتخابی مہم کے سیزن کا رخ کرتے ہیں تو ، آپ مصنوعی ذہانت (اے آئی) اور مشین لرننگ (ایم ایل) کے ذریعے جعلی آن لائن ویڈیوز لانے والے ممکنہ خطرات سے بچنا چاہتے ہیں۔ اے آئی سافٹ ویئر کا استعمال کرتے ہوئے ، لوگ ڈیپ فیک ("گہری سیکھنے اور جعلی" کے لئے مختصر) ویڈیوز تیار کرسکتے ہیں جس میں ایم ایل الگورتھم کا وہم پیدا کرنے کے لئے چہرے کی تبادلہ کرنے کے لئے استعمال کیا جاتا ہے کہ کسی نے یا تو کچھ کہا ہے جسے انہوں نے نہیں کہا ہے یا کوئی ہے وہ ' دوبارہ نہیں ڈیپ فیک ویڈیوز تفریح ​​سے لے کر کارپوریٹ دنیا تک مختلف میدانوں میں دکھائی دے رہی ہیں۔ جھوٹے پیغامات کے ذریعہ نہ صرف گہری نظر رکھنے والی ویڈیوز غیر موزوں طور پر انتخابات پر اثر انداز ہوسکتی ہیں ، لیکن وہ ذاتی شرمندگی لاسکتے ہیں یا گمراہ کن برانڈ پیغامات کا سبب بن سکتے ہیں ، اگر یہ کہتے ہیں کہ ، وہ سی ای او کو کسی پروڈکٹ لانچ یا کسی ایسے حصول کا اعلان کرتے ہوئے دکھاتے ہیں جو واقعتا happen نہیں ہوا تھا۔

ڈیف فیکس اے آئی کے ایک زمرے کا حصہ ہیں جسے "جنیریٹو اڈورشیئل نیٹ ورکس" یا جی اے این کہتے ہیں ، جس میں دو اعصابی نیٹ ورک ایسی تصاویر یا ویڈیوز بنانے میں مسابقت کرتے ہیں جو حقیقی دکھائی دیتے ہیں۔ GANs ایک جنریٹر پر مشتمل ہوتا ہے ، جو ایک جعلی ویڈیو جیسے اعداد و شمار کا ایک نیا سیٹ اور امتیازی سلوک پیدا کرتا ہے ، جو اصلی ویڈیو سے ڈیٹا کی ترکیب اور موازنہ کرنے کے لئے ML الگورتھم کا استعمال کرتا ہے۔ جنریٹر فرضی ویڈیو کے ساتھ جعلی ویڈیو کی ترکیب کی کوشش کرتا رہتا ہے جب تک کہ امتیازی شخص یہ نہیں بتا سکتا ہے کہ ڈیٹا نیا ہے۔

چونکہ میکیفی کے سینئر نائب صدر اور چیف ٹکنالوجی آفیسر (سی ٹی او) ، اسٹیو گروب مین نے سان فرانسسکو میں مارچ میں آر ایس اے کانفرنس 2019 میں نشاندہی کی ، فوٹوگرافی کی ایجاد کے بعد سے ہی جعلی تصاویر لگائی گئیں۔ انہوں نے کہا کہ فوٹو میں تبدیلی کرنا ایک آسان کام رہا ہے جس کی مدد سے آپ کسی ایپلیکیشن جیسے ایڈوب فوٹوشاپ میں انجام دے سکتے ہیں۔ لیکن اب اس قسم کی اعلی درجے کی ترمیمی صلاحیتیں بھی ویڈیو میں شامل ہو رہی ہیں ، اور وہ انتہائی قابل اور آسانی سے رسائی والے سافٹ ویئر ٹولز کا استعمال کرکے یہ کام کر رہی ہیں۔

ڈیف فیکس کیسے تیار کیے جاتے ہیں

اگرچہ اے آئی کے تصورات کو سمجھنا مددگار ہے ، لیکن اس کی ضرورت نہیں ہے کہ ڈیف سائنس بننے کے لئے ڈیف فیک ویڈیو بنائیں۔ گروبمین کے مطابق ، اس میں صرف آن لائن کچھ ہدایات پر عمل کرنا شامل ہے۔ آر ایس اے کانفرنس 2019 میں (اوپر کی ویڈیو دیکھیں) ، اس نے میک ڈیفی میں چیف ڈیٹا سائنسدان اور سینئر پرنسپل انجینئر ڈاکٹر سیلسٹ فرالک کے ساتھ گہری ڈیفیک ویڈیو کی نقاب کشائی کی۔ ڈیف فیک ویڈیو نے اس ٹیکنالوجی کے پیش کردہ خطرے کی مثال دی۔ گروب مین اور فرالک نے دکھایا کہ کیسے ایک عوامی عہدیدار ایک ویڈیو میں یہ کہہ رہا ہے کہ کوئی خطرناک چیز عوام کو یہ سوچنے کے لئے گمراہ کر سکتی ہے کہ پیغام حقیقی ہے۔

ان کی ویڈیو بنانے کے لئے ، گروب مین اور فرالک نے ڈیپ فیک سافٹ ویئر ڈاؤن لوڈ کیا۔ اس کے بعد انہوں نے سنہ 2017 میں امریکی سینیٹ کے سامنے گروب مین کی گواہی دینے کی ایک ویڈیو لی اور فرک کے منہ کو گروب مین پر سپر کیا۔

"میں نے ایک ایم ایل ماڈل بنانے اور اس کی تربیت کے لئے آزادانہ طور پر دستیاب عوامی تبصرے استعمال کیے تھے that اس سے مجھے اپنے الفاظ کے منہ سے نکلے ہوئے ایک گہری معلومات کی ویڈیو تیار کرنے دو ،" اسٹال نے آر ایس اے کے سامعین کو بتایا۔ فرینک نے یہ کہتے ہوئے کہا کہ ڈیف فیک ویڈیوز کو معاشرتی استحصال اور معلوماتی جنگ کے لئے استعمال کیا جاسکتا ہے۔

اپنی ڈیف فیک ویڈیو بنانے کے لئے ، گربمین اور فرالک نے ایک ریڈڈیٹ صارف جسے فیک ایپ کہا جاتا ہے استعمال کیا ، جو ایم ایل الگورتھم اور تصاویر کو ویڈیوز میں چہرہ بدلنے کے ل. استعمال کرتا ہے۔ ان کی RSA پریزنٹیشن کے دوران ، گروب مین نے اگلے اقدامات کی وضاحت کی۔ "ہم نے ویڈیو کو اسٹیل امیجز میں تقسیم کیا ، ہم نے چہروں کو نکالا ، اور ہم ان کو انسٹاگرام میں چھانٹ کر صاف کرتے ہیں۔"

ازگر کے اسکرپٹس نے میکفی ٹیم کو اجازت دی کہ وہ منہ کی حرکتیں کرسکیں تاکہ فرینک کی تقریر گروب مین کے منہ سے مل سکے۔ پھر انہیں کچھ اپنی مرضی کے مطابق اسکرپٹ لکھنے کی ضرورت تھی۔ گروب مین نے کہا کہ جب گہری تعل .ق پیدا کرنے میں چیلنج اس وقت ہوتا ہے جب صنف ، عمر اور جلد کی ٹون جیسی خصوصیات کا مقابلہ نہیں ہوتا ہے۔

اس کے بعد انہوں نے اور فرالک نے فرینک کی تقریر کے ساتھ سینیٹ کے سامنے گربمین کی گواہی دینے والی تصاویر سے ملنے کے لئے ایک حتمی AI الگورتھم استعمال کیا۔ گروب مین نے مزید کہا کہ ان ایم ایل الگورتھم کو تربیت دینے میں 12 گھنٹے لگے۔

مکافی نے 2019 کی آر ایس اے کانفرنس میں دکھائی جانے والی ڈیف فیک ویڈیو بنانے کے لئے اٹھائے گئے اقدامات کا خاکہ پیش کیا۔ اس میں فِل ایپ نامی ڈیپ فیک سافٹ ویئر اور ایم ایل ماڈلز کی تربیت کا استعمال کیا گیا جس میں فرینک کی تقریر کے ساتھ گروب مین کی ویڈیو کو تبدیل کیا جاسکے۔ (تصویری کریڈٹ: مکافی)

ڈیف فیکس کے نتائج

ہیکر سے تیار کردہ ڈیف فیک ویڈیوز میں بہت ساری پریشانیوں کا سبب بننے کی صلاحیت موجود ہے۔ سرکاری افسران سے لے کر جھوٹی غلط معلومات پھیلانے والی مشہور شخصیات تک ان ویڈیوز میں شامل ہونے سے شرمندگی محسوس ہوتی ہے جو وہ واقعی حریف کمپنیوں کے اسٹاک مارکیٹ کو نقصان پہنچانے والی کمپنیوں میں نہیں تھیں۔ ان پریشانیوں سے آگاہی ، قانون سازوں نے ستمبر میں امریکی ڈائریکٹر نیشنل انٹلیجنس ڈینیئل کوٹس کو ایک خط بھیجا ، تاکہ اس خطرے پر نظرثانی کی درخواست کی جاسکے جو گہری نظروں سے لاحق ہے۔ خط میں متنبہ کیا گیا ہے کہ روس جیسے ممالک غلط معلومات پھیلانے کے لئے سوشل میڈیا پر ڈیف فیکس کا استعمال کرسکتے ہیں۔ دسمبر میں ، قانون سازوں نے "آڈیو ویزوئل ریکارڈز" کے سلسلے میں دھوکہ دہی کو کالعدم قرار دینے کے لئے २०१ 2018 کا بدنیتی پر مبنی ڈیپ جعلی ممنوع قانون ایکٹ متعارف کرایا ، جو گہری دستاویزات کا حوالہ دیتے ہیں۔ دیکھنا یہ ہے کہ کیا یہ بل پاس ہوگا یا نہیں۔

جیسا کہ ذکر کیا گیا ہے ، مشہور شخصیات ان ویڈیوز سے شرمندگی کا شکار ہوسکتی ہیں جس میں ان کے چہروں کو فحش ستاروں کے چہروں پر سپرد کردیا گیا ہے ، جیسا کہ گیل گڈوت کا معاملہ تھا۔ یا تصور کریں کہ سی ای او قیاس شدہ طور پر مصنوع کی خبروں کا اعلان اور کسی کمپنی کا اسٹاک ڈوب رہا ہے۔ حفاظتی پیشہ ور افراد اس قسم کے حملوں کا پتہ لگانے کے لئے ایم ایل کا استعمال کرسکتے ہیں ، لیکن اگر ان کا بروقت پتہ نہیں چلا تو وہ کسی ملک یا برانڈ کو غیر ضروری نقصان پہنچا سکتے ہیں۔

فورسٹرٹر ریسرچ کے پرنسپل تجزیہ کار ، ڈاکٹر چیس کننگھم نے کہا ، "اگر آپ کو معلوم ہے کہ آپ کیا کر رہے ہیں اور آپ جانتے ہیں کہ آپ کس کو نشانہ بنانا چاہتے ہیں تو ، آپ واقعی ایک قائل ویڈیو کے ساتھ سامنے آسکتے ہیں۔" . انہوں نے مزید کہا کہ ، اگر آپ یہ پیغامات لنکڈ ان یا ٹویٹر پر بانٹتے ہیں یا کسی بوٹ فارم کا استعمال کرتے ہیں تو ، "آپ تھوڑی بہت کوشش کے بغیر کل بوگس ویڈیو پر مبنی کمپنی کے اسٹاک کو کچل سکتے ہیں۔"

ڈیف فیک ویڈیوز کے ذریعے صارفین کو یہ یقین کرنے پر مجبور کیا جاسکتا ہے کہ کوئی پروڈکٹ کوئی ایسا کام کرسکتا ہے جو وہ نہیں کرسکتا ہے۔ کننگھم نے نوٹ کیا کہ ، اگر کار بنانے والی ایک بڑی کمپنی کے سی ای او نے ایک جعلی ویڈیو میں کہا کہ کمپنی اب گیس سے چلنے والی گاڑیاں تیار نہیں کرے گی اور پھر اس ویڈیو میں ٹویٹر یا لنکڈ ان پر یہ پیغام پھیلائے گی ، تو اس کارروائی سے کسی برانڈ کو آسانی سے نقصان پہنچ سکتا ہے۔

کننگھم نے کہا ، "میری تحقیق سے دلچسپ بات یہ ہے کہ لوگ 37 سیکنڈ میں ہیڈلائنز اور ویڈیوز کی بنیاد پر فیصلے کرتے ہیں۔ لہذا آپ تصور کرسکتے ہیں کہ اگر آپ کو کوئی ایسی ویڈیو مل سکتی ہے جو 37 سیکنڈ سے زیادہ چلتی ہے تو ، آپ لوگوں کو بنیاد پر فیصلہ کرنے کے لئے تیار کرسکتے ہیں۔ چاہے حقیقت پسندی ہو یا نہیں۔ اور یہ خوفناک ہے۔ "

چونکہ سوشل میڈیا ایک غیر محفوظ جگہ ہے جہاں ڈیف فیک ویڈیوز وائرل ہوسکتی ہیں ، لہذا سوشل میڈیا سائٹیں ڈیف فیکس کے خطرے سے نمٹنے کے لئے سرگرم عمل ہیں۔ فیس بک ، مثال کے طور پر ، انجینئرنگ ٹیمیں تعینات کرتی ہے جو جوڑتوڑ والی تصاویر ، آڈیو اور ویڈیو کو دیکھ سکتی ہے۔ سافٹ ویئر استعمال کرنے کے علاوہ ، فیس بک (اور دیگر سوشل میڈیا کمپنیاں) لوگوں کو دستی طور پر ڈیپ فیکس کی تلاش میں لیتے ہیں۔

فیس بک کے ایک نمائندے نے ایک بیان میں کہا ، "ہم نے ڈیپ فیکس سے نمٹنے کے لئے میڈیا میں ہیرا پھیری سے نمٹنے کے لئے اپنی جاری کوششوں کو بڑھایا ہے۔" "ہم جانتے ہیں کہ ہیر پھیر شدہ میڈیا کی تمام شکلوں کا تسلسل ابھرنا معاشرے کے لئے حقیقی چیلینجز پیش کرتا ہے۔ اسی لئے ہم نئے تکنیکی حلوں میں ، سرمایہ کاری کررہے ہیں ، علمی تحقیق سے سیکھ رہے ہیں ، اور صنعت میں دوسروں کے ساتھ مل کر ڈیف فیکس اور ہیرا پھیری میڈیا کی دیگر شکلوں کو سمجھنے کے لئے کام کر رہے ہیں۔ "

تمام ڈیفیکس خراب نہیں ہیں

جیسا کہ ہم نے میکفی کے ذریعہ ایجوکیشنل ڈیف فیک ویڈیو اور رات گئے ٹی وی پر مزاحیہ ڈپ فیک ویڈیوز کے ساتھ دیکھا ہے ، کچھ گہری معلومات ضروری نہیں ہیں کہ وہ خراب ہوں۔ در حقیقت ، جب کہ سیاست ڈیپ فیک ویڈیوز کے حقیقی خطرات کو بے نقاب کر سکتی ہے ، لیکن تفریحی صنعت اکثر صرف ڈیپ فیک ویڈیوز کا ہلکا پہلو ظاہر کرتی ہے۔

مثال کے طور پر ، دی لیٹ شو ود اسٹیفن کولبرٹ کے ایک حالیہ ایپیسوڈ میں ، ایک مضحکہ خیز ڈیف فیک ویڈیو دکھائی گئی جس میں اداکار اسٹیو بوسمی کے چہرے کو اداکارہ جینیفر لارنس کے جسم پر سپرد کردیا گیا تھا۔ ایک اور معاملے میں ، مزاحیہ اداکار اردن پیلر نے سابق صدر براک اوباما کی اپنی آواز سے بات کرتے ہوئے ایک ویڈیو کی جگہ لے لی۔ ان جیسی مضحکہ خیز ڈیف فیک ویڈیوز آن لائن بھی شائع ہوئی ہیں ، جس میں صدر ٹرمپ کا چہرہ جرمن چانسلر انگیلا میرکل کے چہرے پر دب گیا ہے جب شخص بولتا ہے۔

ایک بار پھر ، اگر ڈیف فیک ویڈیوز کو طنزیہ یا مزاحیہ مقصد کے لئے یا محض تفریح ​​کے بطور استعمال کیا جاتا ہے ، تو پھر سوشل میڈیا پلیٹ فارمز اور یہاں تک کہ فلمی پروڈکشن ہاؤس ان کی اجازت دیتے ہیں یا ان کا استعمال کرتے ہیں۔ مثال کے طور پر ، فیس بک اپنے پلیٹ فارم پر اس قسم کے مواد کی اجازت دیتا ہے ، اور لوکاس فیلم نے "روگ ون: ایک اسٹار وار اسٹوری" میں اداکارہ انگولڈ دیلا کے جسم پر ایک نوجوان کیری فشر کو پیش کرنے کے لئے ایک قسم کے ڈیجیٹل تفریح ​​کا استعمال کیا۔

میکفی کے گروبمین نے نوٹ کیا کہ اداکاروں کو محفوظ رکھنے کے لئے فلم میکنگ میں اسٹنٹ ڈبل کے ساتھ گہری چیزوں کے پیچھے کی گئی کچھ ٹیکنالوجی کو اچھے استعمال میں لایا جاتا ہے۔ گروب مین نے کہا ، "سیاق و سباق سب کچھ ہے۔ اگر یہ مزاحیہ مقاصد کے لئے ہے اور یہ واضح ہے کہ یہ حقیقت نہیں ہے تو ، یہ وہ چیز ہے جو ٹکنالوجی کا جائز استعمال ہے۔" "یہ تسلیم کرنا کہ اسے ہر طرح کے مختلف مقاصد کے لئے استعمال کیا جاسکتا ہے کلیدی بات ہے۔"

(تصویری کریڈٹ: سٹیٹا)

ڈیف فیک ویڈیوز کا پتہ لگانے کا طریقہ

مکفی واحد واحد سکیورٹی فرم نہیں ہے جس میں جعلی ویڈیوز کا پتہ لگانے کا طریقہ استعمال کیا گیا ہے۔ بلیک ہیٹ 2018 کے عنوان سے دیئے گئے اپنے مقالے میں ، جس کا عنوان ہے ، "اے آئی گون روگ: خطرے کی وجہ سے پہلے گہری جعلی باتوں کا خاتمہ کرنا ،" دو سیمانیٹک سیکیورٹی ماہرین ، سیکیورٹی رسپانس لیڈ وجے تھویر اور سافٹ ویئر ڈویلپمنٹ انجینئر نرنجن اگنیہوٹری نے لکھا ہے کہ انہوں نے ایک آلہ تیار کیا ہے گوگل فیس نیٹ پر مبنی جعلی ویڈیوز۔ گوگل فیس نیٹ ایک اعصابی نیٹ ورک فن تعمیر ہے جسے گوگل محققین نے چہرے کی تصدیق اور شناخت میں مدد کے لئے تیار کیا ہے۔ صارفین کسی خاص تصویر پر ایک فیس نیٹ ماڈل کی تربیت کرتے ہیں اور اس کے بعد ٹیسٹوں کے دوران اپنی شناخت کی تصدیق کرسکتے ہیں۔

ڈیف فیک ویڈیوز کے پھیلاؤ کو روکنے کے لئے کوشش کرنے کے لئے ، اے ای فاؤنڈیشن ، ایک غیر منافع بخش تنظیم جو انسانی اور اے آئی کی باہمی تعامل پر مرکوز ہے ، جعلی مواد تلاش کرنے کے لئے "ریئلٹی ڈیفنڈر" کے نام سے سافٹ ویئر پیش کرتی ہے۔ یہ دیکھنے کے ل images امیجز اور ویڈیو کو اسکین کرسکتا ہے کہ آیا ان کا استعمال کرتے ہوئے AI کو تبدیل کیا گیا ہے۔ اگر ان کے پاس ہے تو ، انہیں ایک "ایماندار ایم اے واٹر مارک" مل جائے گا۔

  • مشین لرننگ کے لئے بزنس گائیڈ مشین لرننگ کے لئے بزنس گائیڈ
  • پورن ہب ، ٹویٹر پر پابندی عائد Deep Deep Deep Deep Deep AI AI Deep Deep Deep Deep Deep Modifiedified Porn Porn Porn Porn Porn Porn Porn Porn Porn Porn Porn Porn Porn Porn Porn Porn Porn،،،،،،، Twitter Twitter Twitter Twitter Twitter Twitter Twitter Twitter Twitter Twitter Twitter Twitter Twitter Twitter Twitter Twitter Twitter Twitter Twitter
  • تازہ ترین ڈیف ٹیک ٹیک آپ کو برونو مریخ کی طرح رقص کرے گا تازہ ترین ڈیف ٹیک ٹیک آپ کو برونو مریخ کی طرح رقص بھی کرے گا

ایک اور حکمت عملی زیرو ٹرسٹ کے تصور کو ذہن میں رکھنا ہے ، جس کا مطلب ہے "کبھی بھی اعتماد نہ کریں ، ہمیشہ توثیق کریں" - ایک سائبرسیکیوریٹی نعرے کا مطلب ہے کہ آئی ٹی پروفیشنلز کو تصدیق کرنی چاہیئے کہ وہ تمام صارفین کو رسائی کی مراعات دینے سے پہلے جائز ہیں۔ باقی ویڈیو مشمولات کی صداقت پر باقی رہنا ضروری ہوگا۔ آپ یہ بھی چاہیں گے کہ ڈیجیٹل تجزیاتی صلاحیتوں والا سافٹ ویئر جعلی مواد تلاش کرے۔

ڈیف فیکس کی تلاش ہے

آگے بڑھنے کے ل we ، ہمیں ویڈیو مواد سے زیادہ محتاط رہنے کی ضرورت ہوگی اور اگر ان کا غلط استعمال ہوا تو وہ معاشرے میں پیش کر سکتے ہیں ان خطرات کو بھی ذہن میں رکھیں گے۔ جیسا کہ گروبمین نے نوٹ کیا ، "قریب قریب میں ، لوگوں کو اس بات پر زیادہ شکوک و شبہات رکھنے کی ضرورت ہے کہ وہ جس ویڈیو کو دیکھتے ہیں اور اس کو پہچانتے ہیں وہ آڈیو اور آڈیو من گھڑت ثابت ہوسکتے ہیں۔"


لہذا ، اگلے انتخابی سیزن کے آغاز کے ساتھ ہی آپ جو سیاسی ویڈیوز دیکھتے ہیں ان پر شکوہ نگاہ رکھیں اور کارپوریٹ رہنماؤں پر مشتمل ویڈیو پر ان سب پر اعتماد نہ کریں۔ کیونکہ جو آپ سنتے ہیں وہی نہیں ہوسکتا ہے جو واقعی میں کہا گیا تھا ، اور گمراہ کن ڈیفیک ویڈیوز میں ہمارے معاشرے کو واقعی نقصان پہنچانے کی صلاحیت ہے۔

عی اور مشین لرننگ استحصال کرتے ہیں ، ڈیپ فیکس ، جن کا پتہ لگانا اب مشکل ہے