گھر آراء الیکسکا کی غلطیوں سے سیکھنا

الیکسکا کی غلطیوں سے سیکھنا

فہرست کا خانہ:

ویڈیو: الفضاء - علوم الفلك للقرن الØادي والعشرين (اکتوبر 2024)

ویڈیو: الفضاء - علوم الفلك للقرن الØادي والعشرين (اکتوبر 2024)
Anonim

ایک ایمیزون ایکو آلہ نے حال ہی میں ایک صارف کی نجی گفتگو ریکارڈ کی اور اسے بغیر کسی معلومات اور رضامندی کے اپنے رابطوں میں بھیج دیا۔ یہ (پھر) سمارٹ اسپیکر کی سلامتی اور رازداری کے بارے میں خدشات پیدا کرتا ہے۔ جیسا کہ بعد میں یہ بات واضح ہوگئی ، تاہم ، الیکسکا کا عجیب و غریب سلوک کسی جاسوسی کے سازش کا حصہ نہیں تھا ، بلکہ اس کی وجہ اسمارٹ اسپیکر کے کام کرنے کے طریقہ کار سے منسوب متعدد ناکامیوں کی وجہ سے ہوا ہے۔

ایمیزون کے ذریعہ فراہم کردہ اکاؤنٹ کے مطابق: "پس منظر کی گفتگو میں ایک لفظ 'الیکسہ' کی طرح سنائی دینے کی وجہ سے ایکو جاگ اٹھا۔ پھر ، اس کے بعد کی گفتگو کو 'میسج بھیجیں' کی درخواست کے بطور سنا گیا۔ کس موقع پر ، الیکسا نے اونچی آواز میں کہا 'کس کو؟' کس مقام پر ، پس منظر کی گفتگو کو صارف کے رابطے کی فہرست میں نام کے ساتھ سمجھا جاتا تھا۔ پھر الیکسا نے اونچی آواز میں پوچھا ، 'ٹھیک ہے؟' اس کے بعد الیکشا نے پس منظر کی گفتگو کی ترجمانی 'صحیح' کی۔ اس واقعے کے امکانات کے امکان کے مطابق ، ہم اس معاملے کو اور بھی کم امکان بنانے کے لئے اختیارات کا جائزہ لے رہے ہیں۔

منظر نامہ ایک کنارے کا واقعہ ہے ، اس نوعیت کا واقعہ جو شاذ و نادر ہی ہوتا ہے۔ لیکن یہ مصنوعی ذہانت کی ٹیکنالوجی کی حدود میں ایک دلچسپ مطالعہ بھی ہے جو ایکو اور دوسرے نام نہاد "اسمارٹ" آلات کو طاقت دیتا ہے۔

بہت زیادہ کلاؤڈ ریلائنس

صوتی احکامات کو سمجھنے کے لئے ، ایکو اور گوگل ہوم جیسے سمارٹ اسپیکر گہری سیکھنے والے الگورتھم پر انحصار کرتے ہیں ، جس میں وسیع پیمانے پر کمپیوٹنگ طاقت کی ضرورت ہوتی ہے۔ چونکہ ان کے پاس مقامی طور پر کام انجام دینے کے لئے کمپیوٹنگ کے وسائل نہیں ہیں ، لہذا ان کو ڈیٹا تیار کرنے والے کلاؤڈ سرورز کو بھیجنا ہوگا ، جہاں اے آئی الگوریتمز تقریر کے ڈیٹا کو متن میں تبدیل کرتے ہیں اور کمانڈ پر کارروائی کرتے ہیں۔

لیکن ہوشیار بولنے والے اپنے کلاؤڈ سرورز کو سننے والی ہر چیز نہیں بھیج سکتے ہیں ، کیونکہ اس کی وجہ سے کارخانہ دار کو ضرورت ہوتی ہے کہ وہ اپنے سرورز پر ضرورت سے زیادہ ڈیٹا ذخیرہ کرے which جن میں سے بیشتر بیکار ہوں گے۔ حادثاتی طور پر صارفین کے گھروں میں ہونے والی نجی گفتگو کو ریکارڈ کرنا اور اسٹور کرنا بھی رازداری کا چیلنج پیش کرے گا اور مینوفیکچروں کو مشکلات میں مبتلا کرسکتا ہے ، خاص طور پر نئے ڈیٹا پرائیویسی قواعد و ضوابط سے جن پر ٹیک کمپنیاں ڈیٹا کو کس طرح محفوظ اور استعمال کرتی ہیں اس پر سخت پابندیاں عائد ہوتی ہیں۔

یہی وجہ ہے کہ اسمارٹ اسپیکر کو ڈیزائن کیا گیا ہے کہ صارف "الیکسا" یا "ارے گوگل" جیسے واگ لفظ استعمال کرنے کے بعد اس کو متحرک کیا جائے۔ ویک لفظ سننے کے بعد ہی وہ تجزیہ اور پروسیسنگ کے لئے اپنے مائکروفون کے آڈیو ان پٹ کو بادل پر بھیجنا شروع کردیتے ہیں۔

حالانکہ اس خصوصیت سے رازداری میں بہتری آتی ہے ، یہ اپنے ہی چیلنجوں کو پیش کرتی ہے ، جیسا کہ حالیہ الیکسا واقعے نے روشنی ڈالی۔

"اگر کوئی لفظ - یا کچھ اس طرح کی آواز لگ رہا ہے half ایک گفتگو کے ذریعے آدھا راستہ بھیجا جاتا ہے تو ، الیکسا کا سابقہ ​​سیاق و سباق میں سے کوئی بات نہیں ہوگی۔" "اس وقت ، آپ کی مہارت سے متعلق کسی بھی احکامات کے لئے یہ انتہائی سخت سن رہا ہے (جیسے ان کی میسجنگ ایپ)۔ رازداری میں ، اس تناظر کو محدود کرتے ہوئے رازداری میں بہت اضافہ کیا گیا ہے کہ جیسا کہ الیکس توجہ دے رہا ہے (جیسے کہ یہ آپ کی عام گفتگو میں سے کسی کو بھی ریکارڈ کرنے یا سننے میں نہیں ہے) ، اگرچہ اس معاملے میں اس کی مدد کی گئی ہے۔ "

ایج کمپیوٹنگ میں پیشرفت اس پریشانی کو دور کرنے میں مددگار ثابت ہوسکتی ہے۔ چونکہ اے آئی اور گہری سیکھنے میں زیادہ سے زیادہ آلات اور ایپلی کیشنز کا راستہ تلاش ہوتا ہے ، کچھ ہارڈویئر مینوفیکچررز نے بادل وسائل پر زیادہ انحصار کیے بغیر AI کاموں کو انجام دینے کے لئے خصوصی پروسیسر بنائے ہیں۔ ایج AI پروسیسرز تمام ڈیٹا کو کلاؤڈ پر بھیج کر صارفین کی رازداری کی خلاف ورزی کیے بغیر اکو کو بہتر سمجھنے اور گفتگو پر کارروائی کرنے جیسے آلات کی مدد کرسکتے ہیں۔

سیاق و سباق

آڈیو کے مختلف اور بکھرے ہوئے ٹکڑوں کو وصول کرنے کے علاوہ ، ایمیزون کا اے آئی انسانی گفتگو کی اہمیت کو سمجھنے کے لئے جدوجہد کرتا ہے۔

مارچ نے کہا ، "اگرچہ پچھلے کچھ سالوں سے گہری سیکھنے میں بہت زیادہ پیشرفت ہوئی ہے ، جس سے تقریر اور تصاویر کو پہلے کے مقابلے میں بہتر سمجھنے کے قابل بنایا گیا ہے ، ابھی بھی بہت سی حدود باقی ہیں۔" "اگرچہ آواز کے معاونین ان الفاظ کو پہچان سکتے ہیں جو آپ کہہ رہے ہیں ، لیکن اس کے معنی یا ارادے کے بارے میں ان کے پاس کسی قسم کی حقیقی تفہیم ضروری نہیں ہے۔ دنیا ایک پیچیدہ جگہ ہے ، لیکن آج کوئی بھی اے آئی نظام صرف اس قابل ہے کہ وہ بہت سنبھل سکے۔ مخصوص ، تنگ استعمال کے معاملات۔ "

مثال کے طور پر ، ہم انسانوں کے پاس اس بات کا تعین کرنے کے بہت سارے طریقے ہیں کہ آیا کوئی جملہ ہماری طرف رجوع کیا گیا ہے ، جیسے آواز کا لہجہ ، یا بصری اشارے پر عمل کرنا - کہتے ہیں ، اسپیکر جس سمت کی طرف دیکھ رہا ہے۔

اس کے برعکس ، الیکسا نے یہ فرض کیا ہے کہ یہ کسی بھی جملے کا وصول کنندہ ہے جس میں "A" لفظ ہوتا ہے۔ یہی وجہ ہے کہ صارفین اکثر اسے حادثاتی طور پر متحرک کرتے ہیں۔

مسئلے کا ایک حصہ یہ ہے کہ ہم موجودہ اے آئی کی درخواستوں کی صلاحیتوں کو بڑھا چڑھا کر پیش کرتے ہیں ، اکثر انہیں انسانی دماغ کے ساتھ یا اس سے بالا تر رکھتے ہیں اور ان پر بہت زیادہ اعتماد کرتے ہیں۔ یہی وجہ ہے کہ جب وہ حیرت انگیز طور پر ناکام ہوجاتے ہیں تو ہمیں حیرت ہوتی ہے۔

اسٹار مائنڈ کے نیورو سائنسدان اور بانی پاسکل کافمان کہتے ہیں ، "یہاں مسئلے کا ایک حص isہ یہ ہے کہ 'AI' کی اصطلاح اتنی جارحانہ انداز میں بازار میں لائی گئی ہے کہ صارفین نے اس اصطلاح کے ساتھ مصنوعات پر انحصار کی ایک بڑی رقم رکھی ہے۔ "یہ کہانی واضح کرتی ہے کہ الیکسا میں بہت سی صلاحیتیں ہیں اور نسبتا limited محدود تفہیم ہے کہ انہیں کب اور کب استعمال کیا جانا چاہئے۔"

گہری سیکھنے والے الگورتھم ناکامی کا شکار ہوتے ہیں جب ان کو ایسی ترتیبات کا سامنا کرنا پڑتا ہے جو ان کے لئے تربیت یافتہ ڈیٹا اور منظرنامے سے انحراف کرتے ہیں۔ کافمان کہتے ہیں ، "انسانی سطح کے اے کی ایک خصوصیت خود کفیل قابلیت اور مواد کی صحیح تفہیم ہوگی۔ "یہ ایک AI 'ذہین' کو واقعتاe ماننے کا ایک اہم حصہ ہے اور اس کی نشوونما کے ل vital ضروری ہے۔ خود آگاہی ڈیجیٹل اسسٹنٹ بنانا ، جو ان کے ساتھ انسانی فطرت کی مکمل تفہیم لاتے ہیں ، ان کی تفریحی حقیقت سے حقیقی معنوں میں ان کی تبدیلی کو نشان زد کریں گے۔ مفید آلہ۔ "

لیکن انسانی سطح کا AI بنانا ، جسے عام AI بھی کہا جاتا ہے ، کرنا آسان ہے۔ کئی دہائیوں سے ، ہم سوچ رہے ہیں کہ یہ محض کونے کے آس پاس ہے ، صرف خوفزدہ ہونے کی وجہ سے کیونکہ تکنیکی ترقی نے یہ ظاہر کیا ہے کہ انسانی ذہن کتنا پیچیدہ ہے۔ بہت سے ماہرین کا خیال ہے کہ جنرل اے آئی کا پیچھا کرنا بیکار ہے۔

دریں اثنا ، تنگ AI (چونکہ موجودہ مصنوعی ذہانت کی ٹکنالوجی بیان کی گئی ہے) اب بھی بہت سارے مواقع پیش کرتا ہے اور غلطیوں کو دہرانے سے بچنے کے ل fixed اسے طے کیا جاسکتا ہے۔ واضح ہونے کے ل deep ، گہری سیکھنے اور مشین لرننگ اب بھی نوزائیدہ ہیں ، اور ایمیزون جیسی کمپنیاں جب بھی ایسا ہوتا ہے تو کنارے کے معاملات کو حل کرنے کے لئے اپنے اے آئی الگورتھم کو مستقل طور پر تازہ کرتے ہیں۔

ہمیں کیا کرنے کی ضرورت ہے

"یہ ایک نوجوان ، ابھرتا ہوا فیلڈ ہے۔ قدرتی زبان کی تفہیم خاص طور پر اس کی بچپن میں ہے ، لہذا ہم یہاں بہت کچھ کرسکتے ہیں ،" ایٹمی ایکس کے سی ٹی او ایرک مولر کہتے ہیں۔

مولر کا خیال ہے کہ صوتی تجزیہ اے آئی الگورتھم کو اچھ .ی اور انفلگیشن کو بہتر طور پر سمجھنے کے لئے بنایا جاسکتا ہے۔ مولر کا کہنا ہے کہ "ایک وسیع تر جملے میں لفظ 'الیکسا' کا استعمال کسی درخواست یا حکم سے مختلف معلوم ہوتا ہے۔ الیکسا کو جاگنا نہیں چاہئے کیونکہ آپ نے یہ نام گزرتے وقت کہا تھا۔ کافی تربیت کے ساتھ ، اے آئی کو یہ فرق کرنے کی اہلیت ہونی چاہئے کہ اسمارٹ اسپیکر میں کون سے مخصوص ٹنس ہدایت کیے گئے ہیں۔

ٹیک کمپنیاں اپنے اے آئی کو بھی فرق کرنے کی تربیت دے سکتی ہیں جب اس سے براہ راست بات کرنے کے برخلاف پس منظر کا شور موصول ہوتا ہے۔ مولر کا کہنا ہے کہ "بیک گراؤنڈ چیپٹر میں ایک انوکھا سمعی 'دستخط' ہوتا ہے جو انسان چننے اور منتخب کرنے میں بہت اچھ areا ہوتا ہے۔ اس کی کوئی وجہ نہیں ہے کہ ہم اے آئی ماڈل کو ایسا کرنے کی تربیت نہیں دے سکتے ہیں۔

احتیاط کے طور پر ، اے آئی کے معاونین کو ان فیصلوں کے اثرات کی درجہ بندی کرنی چاہئے اور ان میں انسانی فیصلوں کو ان واقعات میں شامل کرنا چاہئے جہاں وہ کچھ کرنا چاہتے ہیں جو ممکنہ طور پر حساس ہو۔ مینوفیکچرز کو صارف کی واضح اور واضح اجازت کے بغیر حساس معلومات کو بھیجنے سے روکنے کے لئے اپنی ٹیکنالوجیز میں زیادہ سے زیادہ حفاظتی انتظامات کرنا چاہ.۔

، اگرچہ ایمیزون نے یہ اطلاع دی کہ الیکسیکا نے اس کارروائی کی تصدیق کرنے کی کوشش کی ہے جس کی ترجمانی کی گئی ہے ، لیکن کچھ اقدامات کو زیادہ احتیاط سے سنبھالنے اور صارف کے ارادے کی تصدیق کے اعلی معیار پر قائم رہنے کی ضرورت ہے ، "ٹونکین کے سی ای او ساغی ایلیاہی کہتے ہیں۔ "انسانوں میں تقریر کی پہچان کے ایک جیسے معاملات ہوتے ہیں ، اور کبھی کبھار غلط درخواستیں وصول کی جاتی ہیں۔ الیگزا کے برخلاف ، زیادہ امکان ہے کہ ایک انسان اس بات کی تصدیق کرے کہ وہ کسی غیر واضح درخواست کو سمجھتا ہے اور زیادہ اہم بات یہ ہے کہ گذشتہ درخواستوں کے مقابلے میں کسی درخواست کے امکان کا اندازہ لگایا جائے۔"

اس دوران میں…

اگرچہ ٹیک کمپنیاں اپنی AI درخواستوں کو غلطیوں کو کم کرنے کے ل fin اعزاز دیتی ہیں ، صارفین کو حتمی فیصلہ کرنا پڑے گا کہ وہ ان کی طاقت سے چلنے والے آلات کی وجہ سے ممکنہ غلطیوں کے سامنے کتنا بے نقاب ہونا چاہتے ہیں۔

ڈیٹا سائنس کے ماہر اور اے آئی اور سافٹ ویر پر متعدد کتابوں کے مصنف ڈوگ روز کہتے ہیں ، "یہ کہانیاں ڈی آئی کی نئی مقدار کے ساتھ تنازعہ کو ظاہر کرتی ہیں جسے لوگ نئی اے آئی ٹیکنالوجیز کے وعدے کے خلاف بانٹنا چاہتے ہیں۔ "آپ سری کو سست روی پر چھیڑ سکتے ہیں۔ لیکن اس کے لئے زیادہ سے زیادہ ذہانت کے حصول کا بہترین طریقہ ہماری نجی گفتگو پر حملہ کرنا ہے۔ لہذا اگلی دہائی یا اس سے زیادہ اہم سوال یہ ہے کہ ہم ان اے آئی ایجنٹوں کو کتنا زیادہ اپنے رویے میں جھانکنے دیں گے۔ "

"کون سا کنبہ بچ humanہ کے کمرے میں انسانی معاون رکھتا ہے اور اس شخص کو ہر وقت کسی بھی طرح کی گفتگو سننے دیتا ہے؟" کافمان کہتے ہیں ، اسٹار مائنڈ کے نیورو سائنسدان۔ "ہمیں کم سے کم اسی طرح کے '' AI 'آلات (اگر زیادہ نہیں) پر بھی اسی معیار کا اطلاق کرنا چاہئے کہ رازداری ، رازداری یا قابل اعتمادی کی بات کی جائے تو ہم انسانی ذہین انسانوں پر بھی ان کا اطلاق کریں۔"

الیکسکا کی غلطیوں سے سیکھنا