گھر آراء کیا کوئی چیز ہمیں گہرائیوں سے بچا سکتی ہے؟ | بین ڈکسن

کیا کوئی چیز ہمیں گہرائیوں سے بچا سکتی ہے؟ | بین ڈکسن

فہرست کا خانہ:

ویڈیو: The Best Sufi Klaam About Hazrat Syed Sadiq e Akbar- Ha Baad Nabion ke Qawali By Lasani Sa (اکتوبر 2024)

ویڈیو: The Best Sufi Klaam About Hazrat Syed Sadiq e Akbar- Ha Baad Nabion ke Qawali By Lasani Sa (اکتوبر 2024)
Anonim

2017 کے آخر میں ، مدر بورڈ نے ایک AI ٹیکنالوجی کے بارے میں اطلاع دی جو ویڈیوز میں چہروں کو بدل سکتی ہے۔ اس وقت ، اس ٹیک کو ، جسے بعد میں ڈیف فیکس کہا جاتا تھا ، نے خام ، دانے دار نتائج برآمد کیے اور زیادہ تر مشہور جعلی فحش ویڈیوز بنانے کے لئے استعمال کیا جاتا تھا جس میں مشہور شخصیات اور سیاستدان شامل تھے۔

دو سال بعد ، ٹکنالوجی میں زبردست ترقی ہوئی ہے اور ننگی آنکھوں سے اس کا پتہ لگانا مشکل ہے۔ جعلی خبروں کے ساتھ ، جعلی ویڈیوز قومی سلامتی کی پریشانی بن گئی ہیں ، خاص طور پر جب 2020 کے صدارتی انتخابات قریب آ رہے ہیں۔

جب سے ڈیف فیکس سامنے آیا ہے ، کئی تنظیموں اور کمپنیوں نے AI چھیڑ چھاڑ کرنے والی ویڈیوز کا پتہ لگانے کے لئے ٹیکنالوجیز تیار کیں۔ لیکن ایک خدشہ ہے کہ ایک دن ، گہری سمندری ٹیکنالوجی کا پتہ لگانا ناممکن ہو جائے گا۔

یونیورسٹی آف سرے کے محققین نے ایک ایسا حل تیار کیا جس سے یہ مسئلہ حل ہوسکتا ہے: کیا غلط ہے اس کا پتہ لگانے کے بجائے ، یہ ثابت کردے گا کہ حقیقت کیا ہے۔ کمپیوٹر ویژن اینڈ پیٹرن ریکگنیشن (سی وی پی آر) پر آنے والی کانفرنس میں ، جس کو آرچینل کہا جاتا ہے ، آنے والی کانفرنس میں پیش کیا جائے گا ، مستند ویڈیوز کے ل t ٹمپر پروف ڈیجیٹل فنگر پرنٹ بنانے اور رجسٹر کرنے کے لئے اے آئی اور بلاکچین کا استعمال کرتا ہے۔ ٹیلی وژن پر آن لائن تقسیم یا نشر کیے جانے والے میڈیا کی توثیق کی توثیق کرنے کے لئے فنگر پرنٹ کو ایک نقطہ نظر کے طور پر استعمال کیا جاسکتا ہے۔

ویڈیوز پر دستخط کرنے کے لئے AI کا استعمال کرنا

بائنری دستاویز کی صداقت کو ثابت کرنے کا کلاسیکی طریقہ یہ ہے کہ ڈیجیٹل دستخط استعمال کریں۔ پبلشرز اپنی دستاویز کو کریٹوگرافک الگورتھم جیسے SHA256 ، MD5 ، یا بلوفش کے ذریعے چلاتے ہیں ، جس سے بائٹس کی ایک مختصر تار تیار ہوتی ہے جو اس فائل کے مواد کی نمائندگی کرتی ہے اور اس کی ڈیجیٹل دستخط بن جاتی ہے۔ کسی بھی وقت ایک ہی فائل کو ہیشنگ الگورتھم کے ذریعہ چلانے سے وہی ہیش پیدا ہوجائے گی اگر اس کے مندرجات تبدیل نہیں ہوئے ہیں۔

سورس فائل کے بائنری ڈھانچے میں ہونے والی تبدیلیوں کے لئے ہیشس غیر سنجیدہ ہیں۔ جب آپ ہیش فائل میں کسی ایک بائٹ میں ترمیم کرتے ہیں اور اسے الگورتھم کے ذریعہ دوبارہ چلاتے ہیں تو ، یہ بالکل مختلف نتیجہ پیدا کرتا ہے۔

لیکن جبکہ حیسس ٹیکسٹ فائلوں اور ایپلی کیشنز کے ل well کام کرتی ہیں ، وہ ویڈیوز کے ل challenges چیلنجز پیش کرتی ہیں ، جنہیں مختلف فارمیٹ میں اسٹوریج کیا جاسکتا ہے ، یونیورسٹی آف سرے میں کمپیوٹر وژن کے پروفیسر جان کولوموس اور آرچینجل کے پروجیکٹ لیڈ کے مطابق۔

کولوموس کا کہنا ہے کہ ، "ہم چاہتے تھے کہ ویڈیو کوڈیک کے ساتھ کوڈیک سے قطع نظر اس کے دستخط ایک جیسے ہی ہوں۔" "اگر میں اپنی ویڈیو لیتا ہوں اور اسے MPEG-2 سے MPEG-4 میں تبدیل کروں گا ، تو وہ فائل بالکل مختلف لمبائی کی ہوگی ، اور بٹس بالکل تبدیل ہو جائیں گی ، جو ایک مختلف ہیش پیدا کرے گی۔ ہمیں کیا ضرورت ہے ایک مواد سے واقف ہیشیگ الگورتھم تھا۔ "

اس مسئلے کو حل کرنے کے ل Col ، کولوموس اور اس کے ساتھیوں نے ایک گہرا عصبی نیٹ ورک تیار کیا جو ویڈیو میں موجود مواد سے حساس ہے۔ گہرے اعصابی نیٹ ورک AI کی ایک قسم کی تعمیر ہے جو بہت ساری مثالوں کی تجزیہ کے ذریعے اپنے طرز عمل کو ترقی دیتی ہے۔ دلچسپ بات یہ ہے کہ عصبی نیٹ ورک ڈپ فیکس کے مرکز میں بھی ایک ٹکنالوجی ہیں۔

ڈیف فیکس بناتے وقت ، ڈویلپر نیٹ ورک کو کسی مضامین کے چہرے کی تصاویر کے ساتھ کھلا دیتا ہے۔ عصبی نیٹ ورک چہرے کی خصوصیات کو سیکھتا ہے اور ، کافی تربیت کے ساتھ ، مضمون کے چہرے کے ساتھ دیگر ویڈیوز میں چہروں کو ڈھونڈنے اور تبدیل کرنے کی صلاحیت رکھتا ہے۔

اچانک کے اعصابی نیٹ ورک کو فنگر پرنٹ کرنے والی ویڈیو پر تربیت دی جاتی ہے۔ کولوموس کہتے ہیں ، "نیٹ ورک اپنے بنیادی بٹس اور بائٹس کے بجائے ویڈیو کے مواد کو دیکھ رہا ہے۔

تربیت کے بعد ، جب آپ نیٹ ورک کے ذریعہ ایک نیا ویڈیو چلاتے ہیں تو ، جب اس میں اس کی شکل کی پرواہ کیے بغیر ماخذ ویڈیو جیسا ہی مواد ہو تو اس کی تصدیق ہوجائے گی اور جب اسے کوئی مختلف ویڈیو ہوگی یا اس میں چھیڑ چھاڑ یا ترمیم کی گئی ہو تو اسے مسترد کردے گا۔

کولوموس کے مطابق ، یہ ٹیکنالوجی مقامی اور وقتی چھیڑ چھاڑ دونوں کا پتہ لگاسکتی ہے۔ مقامی چھیڑ چھاڑ انفرادی فریموں میں کی جانے والی تبدیلیاں ہیں ، جیسے چہرے میں بدلنے والی تدوینیں ڈیف فیکس میں کی گئیں۔

لیکن ڈیف فیکس ہی نہیں جس سے ویڈیوز میں چھیڑ چھاڑ ہوسکتی ہے۔ کم بحث شدہ لیکن اتنی ہی خطرناک ، جان بوجھ کر تبدیلیاں ہوتی ہیں جو فریموں کی تسلسل اور ویڈیو کی رفتار اور مدت میں کی گئیں۔ ہاؤس اسپیکر نینسی پیلوسی کی ایک حالیہ ، بڑے پیمانے پر گردش میں چھیڑ چھاڑ والی ویڈیو میں ڈیف فیکس کا استعمال نہیں کیا گیا تھا لیکن اسے ترمیم کرنے کی آسان تکنیک کے محتاط استعمال کے ذریعہ تخلیق کیا گیا تھا جس کی وجہ سے وہ الجھا ہوا نظر آرہا تھا۔

"چھیڑ چھاڑ کی ایک قسم جس کا ہم سراغ لگا سکتے ہیں وہ ہے ویڈیو کے مختصر حصوں کو ہٹانا۔ یہ دنیاوی چھیڑ چھاڑ ہیں۔ اور ہم تین سیکنڈ تک چھیڑ چھاڑ کرسکتے ہیں۔ لہذا ، اگر کوئی ویڈیو کئی گھنٹوں تک لمبی ہے اور آپ صرف تین کو ہٹا دیتے ہیں۔ اس ویڈیو کے سیکنڈز میں ، ہم اس کا پتہ لگاسکتے ہیں ، "کولوموس کا کہنا ہے کہ ، اس کے علاوہ پیجسی ویڈیو میں ہونے والی تبدیلیاں بھی اصل ویڈیو کی رفتار میں کی جانے والی تبدیلیوں کا پتہ لگائیں گی۔

بلاکچین پر فنگر پرنٹ کا اندراج

آرچینجل پروجیکٹ کا دوسرا جزو ایک بلاکچین ہے ، ایک چھیڑ چھاڑ کا ایک ڈیٹا بیس ہے جہاں نئی ​​معلومات محفوظ کی جاسکتی ہیں لیکن اسے تبدیل نہیں کیا جاسکتا video ویڈیو آرکائیوز کے لئے مثالی ، جو رجسٹر ہوجانے کے بعد ان میں تبدیلیاں نہیں کرتے ہیں۔

بلاکچین ٹیکنالوجی بٹ کوائن اور ایتھر جیسی ڈیجیٹل کرنسیوں کی اساس کرتی ہے۔ یہ ایک ڈیجیٹل لیجر ہے جسے کئی آزاد پارٹیوں نے برقرار رکھا ہے۔ فریقین کی اکثریت کو بلاکچین میں کی جانے والی تبدیلیوں پر اتفاق کرنا ہوگا ، جس کی وجہ سے کسی بھی فریق کے لئے یک طرفہ طور پر لیجر کے ساتھ مداخلت کرنا ناممکن ہوجاتا ہے۔

اگر بلاکچین کے 50 فیصد سے زیادہ شرکاء شریک ہوجاتے ہیں تو اس پر حملہ کرنا اور اسے تبدیل کرنا تکنیکی طور پر ممکن ہے۔ لیکن عملی طور پر ، یہ بہت مشکل ہے ، خاص طور پر جب بلاکچین بہت سے آزاد جماعتوں کے ذریعہ مختلف مقاصد اور مفادات کے ساتھ برقرار رکھا جاتا ہے۔

آرچینیل کا بلاکچین عوامی بلاکچین سے تھوڑا مختلف ہے۔ سب سے پہلے ، یہ cryptocurrency تیار نہیں کرتا ہے اور محفوظ شدہ دستاویز میں ہر ویڈیو کے لئے صرف شناخت کنندہ ، مواد سے واقف فنگر پرنٹ ، اور تصدیق کنندہ عصبی نیٹ ورک کے بائنری ہیش کو اسٹور کرتا ہے (بلاکچین بڑی مقدار میں ڈیٹا اسٹور کرنے کے لئے موزوں نہیں ہے ، یہی وجہ ہے کہ ویڈیو خود اور عصبی نیٹ ورک آف چین میں ذخیرہ ہے)۔

نیز ، یہ اجازت یا "نجی" بلاکچین ہے۔ اس کا مطلب یہ ہے کہ بٹ کوائن بلاکچین کے برعکس ، جہاں ہر شخص نئے لین دین کو ریکارڈ کرسکتا ہے ، صرف اجازت یافتہ پارٹیاں ہی آرچینٹل بلاکچین پر نئے ریکارڈ محفوظ کرسکتی ہیں۔

اس وقت مہادوت کو برطانیہ ، ایسٹونیا ، ناروے ، آسٹریلیا اور امریکہ سے قومی حکومت کے آرکائیوز کے نیٹ ورک کے ذریعہ آزمایا جارہا ہے: نئی معلومات کو محفوظ کرنے کے لئے ، ہر ملوث ملک کو اس کے علاوہ لکھا جانا پڑتا ہے۔ لیکن جب کہ حصہ لینے والے ممالک کے صرف قومی آرکائیوز کو ہی ریکارڈ شامل کرنے کا حق حاصل ہے ، باقی سب نے بلاکچین تک رسائی پڑھ لی ہے اور اس کو محفوظ شدہ دستاویزات کے خلاف دیگر ویڈیوز کی توثیق کرنے کے لئے استعمال کرسکتے ہیں۔

  • اے آئی اور مشین لرننگ استحصال ، ڈیف فیکس ، اب معلوم کرنا مشکل ہے کہ اے آئی اور مشین لرننگ استحصال ، ڈیف فیکس ، اب معلوم کرنا مشکل ہے
  • ڈیف فیک ویڈیوز یہاں ہیں ، اور ہم تیار نہیں ہیں ڈیف فیک ویڈیوز یہاں ہیں ، اور ہم تیار نہیں ہیں
  • ایڈوب کی نئی AI فوٹو شاپ شدہ چہروں کا پتہ لگائے ایڈوب کے نئے AI نے فوٹو شاپ کردہ چہروں کا پتہ لگایا

کولوموس کہتے ہیں ، "یہ عوامی مفاد کے لئے بلاکچین کی درخواست ہے۔ "میری نظر میں ، بلاکچین کا واحد معقول استعمال تب ہے جب آپ کے پاس آزاد تنظیمیں ہوں جو ضروری نہیں کہ ایک دوسرے پر اعتماد کریں لیکن ان کی باہمی اعتماد کے اس اجتماعی مقصد میں یہ دلچسپی ہے۔ اور ہم کیا کرنا چاہتے ہیں پوری دنیا میں حکومت کے قومی ذخائر کو محفوظ بنائیں ، تاکہ ہم اس ٹکنالوجی کا استعمال کرتے ہوئے ان کی سالمیت کو تحریر کرسکیں۔ "

چونکہ جعلی ویڈیوز بنانا آسان ، تیز تر اور زیادہ قابل رسائی ہوتا جا رہا ہے ، لہذا ہر ایک کو اپنی ویڈیو آرکائیوز خصوصا حکومتوں کی سالمیت کو یقینی بنانے کے ل all ان کو ہر طرح کی مدد کی ضرورت ہوگی۔

کولوموس کہتے ہیں ، "میرے خیال میں ڈیف فیکس تقریبا almost اسلحہ کی دوڑ کی طرح ہیں۔ "چونکہ لوگ تیزی سے قائل گہری سمندری فاضوں کو تیار کررہے ہیں ، اور کسی دن ان کا پتہ لگانا ناممکن ہو جائے گا۔ اسی ل you آپ سب سے بہتر ایک ویڈیو کی نزاکت کو ثابت کرنے کی کوشش کر رہے ہیں۔"

کیا کوئی چیز ہمیں گہرائیوں سے بچا سکتی ہے؟ | بین ڈکسن