گھر آراء عی کو کیوں انکشاف کرنا چاہئے کہ یہ عی ہے

عی کو کیوں انکشاف کرنا چاہئے کہ یہ عی ہے

فہرست کا خانہ:

ویڈیو: ‫Ù...اÙ...ا جابت بيبي جنى Ù...قداد اناشيد طيور الجنة‬‎ (اکتوبر 2024)

ویڈیو: ‫Ù...اÙ...ا جابت بيبي جنى Ù...قداد اناشيد طيور الجنة‬‎ (اکتوبر 2024)
Anonim

ریستوراں کے میزبانوں اور سیلون عملے کے سامنے واضح طور پر انکشاف کرنے کے لئے گوگل نے حال ہی میں ڈوپلیکس کو دوبارہ بنایا کہ وہ گوگل اسسٹنٹ کے ساتھ بات کر رہے ہیں اور ان کو ریکارڈ کیا جارہا ہے۔

گوگل نے اس چھوٹی لیکن اہم تفصیل کو اس وقت ترک کردیا جب اس نے مئی میں پہلی بار ڈوپلیکس کو اپنی I / O ڈویلپر کانفرنس میں متعارف کرایا تھا۔ میڈیا کے ردعمل نے نتیجہ اخذ کیا ، اور ناقدین نے اے آئی ایجنٹوں کو آزاد کرنے کے مضمرات کے بارے میں پرانے خدشات کی تجدید کی جو انسانوں کے رویے کو الگ الگ طریقوں سے نقش کرسکتے ہیں۔

ڈوپلیکس ٹویٹ کرکے ، گوگل اس تنقید میں سے کچھ پر آرام ڈالتا ہے۔ لیکن یہ اتنا اہم کیوں ہے کہ کمپنیاں اپنے اے آئی ایجنٹوں کی شناخت کے بارے میں شفاف ہوں؟

کیا اے آئی کے معاونین شیطان کے مقاصد کی خدمت کرسکتے ہیں؟

سی ای او جوشوا مارچ کہتے ہیں ، "یہاں ایک بڑھتی ہوئی توقع کی جارہی ہے کہ جب آپ کسی کاروبار کو پیغام دے رہے ہو تو آپ اے آئی سے چلنے والی چیٹ بوٹ کے ساتھ بات چیت کر سکتے ہو۔ لیکن جب آپ واقعتا human انسان بولنے کی آواز سنتے ہیں تو ، آپ عام طور پر توقع کرتے ہیں کہ وہ حقیقی انسان ہوگا۔" کلورسکوئیل کی۔

مارچ کا کہنا ہے کہ ہم ان لوگوں کے آغاز میں ہیں جو مستقل بنیادوں پر اے آئی کے ساتھ معنی خیز تعامل رکھتے ہیں ، اور اس شعبے میں پیشرفت نے یہ خدشہ پیدا کیا ہے کہ ہیکرز بددیانتی مقاصد کے لئے اے آئی ایجنٹوں کا استحصال کرسکتے ہیں۔

کوجو اے میں نیٹ ورکس کے ایس وی پی ، مارسیو اویلیز کہتے ہیں ، "ایک بہترین صورتحال میں ، بدنیتی پر مبنی ارادوں والے اے آئی بوٹس لوگوں کو ناراض کرسکتے ہیں۔ لیکن مارسیو مزید کہتے ہیں کہ ہمیں مزید شدید خطرات کا سامنا کرنا پڑ سکتا ہے۔ مثال کے طور پر ، AI مخصوص لسانی نمونے سیکھ سکتا ہے ، جس سے لوگوں کو جوڑ توڑ ، نقالی شکار اور اسٹیج وشنگ (صوتی فشینگ) حملوں اور اسی طرح کی سرگرمیوں کے ل to ٹکنالوجی کو اپنانا آسان بناتا ہے۔

بہت سے ماہرین اس بات سے اتفاق کرتے ہیں کہ یہ خطرہ اصل ہے۔ سی آئی او کے ایک کالم میں ، اسٹیوِن برک مین نے مختلف طریقوں سے ڈوپلیکس جیسی ٹیکنالوجی سے فائدہ اٹھایا جاسکتا ہے اس کی نشاندہی کی: "کم از کم انسانوں کو انسان کہتے ہیں ، اب بھی ایک محدود عامل ہے - ایک انسان صرف فی گھنٹہ ، فی دن بہت ساری کالیں کرسکتا ہے۔ انسانوں کو معاوضہ ادا کرنا پڑتا ہے ، وقفے لینے پڑتے ہیں ، اور اسی طرح آگے۔ لیکن ایک اے آئی چیٹ بوٹ لامحدود متعدد طریقوں سے لامحدود تعداد میں لوگوں کو لامحدود تعداد میں کال کرسکتا ہے! "

اس مرحلے پر ، ہم سب سے زیادہ جو قیاس کرتے ہیں وہ قیاس آرائی ہے۔ ہم ابھی بھی ان خطرات کی اس حد اور سنجیدگی کو نہیں جانتے ہیں جو صوتی معاونین کی آمد کے ساتھ پیدا ہوسکتے ہیں۔ لیکن آواز پر مبنی معاونین پر مشتمل بہت سے ممکنہ حملوں کو ناکارہ کیا جاسکتا ہے اگر کمپنی کو ٹیکنالوجی مہیا کرنے والے صارفین کے ساتھ واضح طور پر بات کرتے ہیں جب وہ کسی اے آئی ایجنٹ کے ساتھ بات چیت کرتے ہیں۔

رازداری سے متعلق تشویشات

ڈوپلیکس جیسی ٹیکنالوجیز کے استعمال کے ارد گرد ایک اور مسئلہ ، رازداری کا ممکنہ خطرہ ہے۔ اے آئی سے چلنے والے سسٹم کو اپنے الگورتھم کی تربیت اور بہتری کے ل user صارف کے اعداد و شمار کی ضرورت ہوتی ہے ، اور ڈوپلیکس بھی اس سے مستثنیٰ نہیں ہے۔ یہ ڈیٹا کو کس طرح محفوظ ، محفوظ اور استعمال کرے گا یہ بہت ضروری ہے۔

نئے ضوابط سامنے آرہے ہیں جس کے تحت کمپنیوں کو اپنی معلومات اکٹھا کرنا چاہیں تو صارفین کی واضح رضامندی حاصل کرنا ہوگی ، لیکن وہ زیادہ تر ایسی ٹیکنالوجیز کا احاطہ کرنے کے لئے تیار کیے گئے ہیں جہاں صارف جان بوجھ کر بات چیت کا آغاز کرتے ہیں۔ یہ سیری اور الیکسا جیسے ائی معاونین کے لئے معنی خیز ہے ، جو صارف سے متحرک ہیں۔ لیکن یہ واضح نہیں ہے کہ نئے قواعد کیسے AI کے معاونین پر لاگو ہوں گے جو متحرک ہونے کے بغیر صارفین تک پہنچ جاتے ہیں۔

برک مین نے اپنے مضمون میں ، انضباطی حفاظتی اقدامات قائم کرنے کی ضرورت پر زور دیا ہے ، جیسے قوانین جن میں کمپنیوں کو اے آئی ایجنٹ کی موجودگی کا اعلان کرنا پڑتا ہے - یا ایسا قانون ہے کہ جب آپ چیٹ بوٹ سے پوچھتے ہیں کہ آیا یہ چیٹ بوٹ ہے تو ، یہ کہنا ضروری ہے ، "ہاں ، میں چیٹ بوٹ ہوں۔ " اس طرح کے اقدامات سے انسانی گفتگو کرنے والے کو منحرف ہونے کا موقع ملے گا یا کم از کم یہ فیصلہ ہوگا کہ آیا وہ کسی ایسے AI نظام کے ساتھ بات چیت کرنا چاہتے ہیں جو ان کی آواز کو ریکارڈ کرے۔

ایسے قوانین کے باوجود بھی رازداری کے خدشات دور نہیں ہوں گے۔ "میں نے اس ٹیکنالوجی کے حالیہ اوتار کا سب سے بڑا خطرہ یہ کیا ہے کہ وہ گوگل کو ہماری نجی زندگیوں کے بارے میں مزید اعداد و شمار فراہم کرے گا جو اس کے پاس پہلے سے نہیں تھا۔ اب تک ، وہ صرف ہماری آن لائن مواصلات کے بارے میں جانتے ہیں؛ انہیں اب اس میں حقیقی بصیرت حاصل ہوگی۔ زینہ کے بانی اور سی ای او وین چننر کا کہنا ہے کہ ہماری حقیقی دنیا کی گفتگو۔

بڑی ٹیک کمپنیوں سے وابستہ حالیہ رازداری کے اسکینڈلز ، جس میں انہوں نے صارف کے ڈیٹا کو اپنے فوائد کے لئے سوالیہ طریقوں سے استعمال کیا ہے ، ان کو ہماری زندگی میں مزید ونڈوز دینے کے بارے میں عدم اعتماد کا احساس پیدا کیا ہے۔ "عام طور پر لوگ یہ محسوس کرتے ہیں کہ بڑی تعداد میں سلیکن ویلی کمپنیاں انہیں صارفین کی بجائے انوینٹری کی حیثیت سے دیکھ رہی ہیں اور ان کے ہر کام پر بڑی حد تک عدم اعتماد ہے ، اس سے قطع نظر کہ اس کی زندگی کو کتنا ہی خراب اور زندگی بدلا جائے گا۔"

فنکشنل ناکامی

قدرتی آواز اور سر رکھنے اور انسانی جیسے آواز جیسے "ملی ایم ایچ ایم" اور "ام" کے استعمال کے باوجود ، ڈوپلیکس دیگر عصری اے آئی ٹیکنالوجیز سے مختلف نہیں ہے اور اسی حدود سے دوچار ہے۔

چاہے صوتی یا متن کو انٹرفیس کے طور پر استعمال کیا جا AI ، AI ایجنٹس مخصوص مسائل کو حل کرنے میں اچھے ہیں۔ اسی لئے ہم انہیں "تنگ AI" کہتے ہیں (جیسے "عام AI" یعنی مصنوعی ذہانت کی ایک قسم ہے جو عام مسئلے کو حل کرنے میں مشغول ہوسکتی ہے ، جیسا کہ انسانی دماغ کرتا ہے)۔ اگرچہ تنگ AI ان کاموں کو انجام دینے میں غیر معمولی طور پر اچھا ہوسکتا ہے جو اس کے لئے تیار کیا گیا ہے ، لیکن یہ اس وقت حیرت انگیز طور پر ناکام ہوسکتا ہے جب اسے ایسا منظر نامہ دیا جائے جو اس کے مسئلے کے ڈومین سے ہٹ جاتا ہے۔

"اگر صارف یہ سوچتا ہے کہ وہ انسان سے بات کر رہے ہیں تو ، وہ ممکنہ طور پر ایسی کچھ پوچھیں گے جو AI کے عام اسکرپٹ سے باہر ہے ، اور پھر مایوسی کا جواب ملے گا جب بوٹ سمجھ نہیں پائے گا ،" کنورسوسیشل مارچ کا کہنا ہے۔

اس کے برعکس ، جب ایک شخص جانتا ہے کہ وہ کسی AI سے بات کر رہے ہیں جسے کسی ریستوراں میں ٹیبلز کو محفوظ رکھنے کی تربیت دی گئی ہے ، تو وہ زبان کو استعمال کرنے سے گریز کرنے کی کوشش کریں گے جو AI کو الجھا دے گی اور غیر متوقع طریقوں سے برتاؤ کا باعث بنے گی ، خاص کر اگر وہ لائے ہوئے ہے انہیں ایک گاہک۔

اولیز کا کہنا ہے کہ "ڈوپلیکس سے کال آنے والے عملے کے ممبروں کو بھی سیدھا تعارف کرانا چاہئے کہ یہ کوئی حقیقی شخص نہیں ہے۔ اس سے عملے اور اے آئی کے مابین مواصلات زیادہ قدامت پسند اور واضح ہونے میں مدد ملے گی۔"

اس وجہ سے ، جب تک ہم (اور اگر) ہم AI کی ترقی نہیں کرتے جو انسانی ذہانت کے برابر کام انجام دے سکتی ہے ، خود ان کمپنیوں کے مفاد میں ہے کہ وہ AI کے استعمال کے بارے میں شفاف ہوں۔

دن کے اختتام پر ، ڈوپلیکس جیسے صوتی معاونین کے خوف کا ایک سبب اس حقیقت کی وجہ سے ہوا ہے کہ وہ نئے ہیں ، اور ہم اب بھی ان کا سامنا کرنے کی نئی ترتیبات میں استعمال ہو رہے ہیں اور معاملات استعمال کر رہے ہیں۔ چننر کہتے ہیں ، "کم از کم کچھ لوگ بغیر کسی روبوٹ کے جاننے کے بات کرنے کے خیال سے بہت ہی بے چین محسوس کرتے ہیں ، لہذا اس وقت بات چیت میں ہم عہدوں کے سامنے اس کا انکشاف کیا جانا چاہئے۔"

  • اے آئی (اس کے علاوہ) اچھ AIی کے لئے ایک طاقت ہے
  • جب AI حقیقت اور افسانے کے درمیان لائن کو دھندلا دیتا ہے جب AI حقیقت اور افسانے کے درمیان لائن کو دھندلا دیتا ہے
  • مصنوعی ذہانت میں تعصب کا ایک مسئلہ ہے ، اور یہ ہماری غلطی ہے مصنوعی ذہانت میں تعصب کا مسئلہ ہے ، اور یہ ہماری غلطی ہے۔

لیکن طویل عرصے میں ، ہم اے آئی ایجنٹوں کے ساتھ بات چیت کرنے کے عادی ہوجائیں گے جو ذہین اور قابل افعال فرائض انجام دینے میں زیادہ اہل ہیں جو پہلے یہ خیال کیا جاتا تھا کہ وہ انسانی آپریٹرز کا خصوصی ڈومین ہیں۔

"آنے والی نسل کو اس کی پرواہ نہیں ہوگی کہ جب وہ کسی کاروبار سے رابطہ کرتے ہیں تو وہ اے آئی یا انسان سے بات کر رہے ہیں۔ وہ صرف اپنا جواب جلد اور آسانی سے حاصل کرنا چاہیں گے ، اور وہ الیکسا سے بات کرتے ہوئے بڑی ہو جائیں گی۔ انتظار کریں گے۔ کسی انسان سے بات کرنے کا انعقاد صرف ایک بوٹ کے ساتھ بات چیت کرنے سے کہیں زیادہ مایوس کن ہوگا۔

عی کو کیوں انکشاف کرنا چاہئے کہ یہ عی ہے