سائنس

فیشل ریکگنیشن ٹیکنالوجی: مصنوعی ذہانت سیاہ فام اور ایشیائی چہرے پہچاننے میں کتنی ذہین؟

Share

امریکہ کے ایک سرکاری جائزے کے مطابق انسانی چہروں کو پہچاننے والے ایلگورتھم سفید فام نسل کے چہروں کے مقابلے میں سیاہ فام اور ایشیائی باشندوں کے چہرے پہچاننے کے معاملے میں بہت ناقص ہیں۔

حکومتی تحقیق میں مزید کہا گیا ہے کہ سیاہ فام نسل کے مردوں کے مقابلے میں خواتین کی پہچان میں اس میں مزید غلطیوں کے امکانات نظر آئے ہیں۔

تحقیق کے بعد اس معاملے میں مزید شبہات پیدا ہوتے ہیں کہ کیا قانون نافذ کرنے والے اداروں کو اس قسم کی ٹیکنالوجی استعمال کرنی چاہیے۔

نیشنل انسٹی ٹیوٹ آف سٹینڈرڈز اینڈ ٹکنالوجی (نسٹ) نے انٹیل، مائیکروسافٹ، توشیبا اور چینی کمپنیوں ٹینسینٹ اور ڈی ڈی چوشنگ سمیت 99 کمپنیوں کے 189 ایلگورتھمز کی جانچ کی ہے۔

ایمیزون کمپنی چہروں کو شناخت کرنے والی اپنی ٹیکنالوجی ’ریکگنیشن‘ امریکی پولیس فورسز کو فروخت کرتی ہے تاہم کمپنی نے اس تحقیق کے لیے اپنا نمونہ جانچ کے لیے نہیں پیش کیا تھا۔

’ون ٹو ون میچنگ‘

اس سے قبل اس کمپنی نے میساچوسٹس انسٹی ٹیوٹ آف ٹیکنالوجی کے ایک مطالعے کو ’گمراہ کن‘ قرار دیا تھا۔ اس رپورٹ میں کہا گیا تھا کہ ریکگنیشن کی کارکردگی سیاہ فام خواتین کے چہروں کی پہچان میں خاص طور پر خراب تھی۔

رپورٹ کے مطابق جب کسی خاص تصویر کو اسی شخص کی دوسری تصویر سے ملایا گیا (ون ٹو ون میچنگ یا ایک سے ایک کا میل کرایا گیا) تو بہت سے مصنوعی ذہانت پر مبنی ایلگورتھم نے سیاہ فام اور ایشیائی چہروں کو 10 سے لے کر 100 مرتبہ تک کوکیشین چہروں کے مقابلے میں غلط پہچانا۔

اور ایک سے ایک کی میچنگ میں سیاہ فام نسل کی خواتین کی غلط پہچان کے زیادہ امکانات نظر آئے جہاں کسی خاص تصویر کو ڈیٹابیس میں موجود بہت سے چہروں سے مشابہ قرار دیا جاتا ہے۔

کانگریس کے رکن اور ہوم لینڈ سکیورٹی کی یوایس ہاؤس کمیٹی کے چیئرمین بینی تھامسن نے خبر رساں ادارے روئٹرز کو بتایا: ’امریکی انتظامیہ کو چہروں کی شناخت کرنے والی ٹیکنالوجی کے نئے دہشت انگیز نتائج کی روشنی میں از سرِ نو ضرور جائزہ لینا چاہیے۔‘

چہرے کا تجزیہ

کمپیوٹر سائنسدان اور ایلگورتھمک جسٹس لیگ کے بانی جوا بولاموینی نے ان دعوؤں کے خلاف اس رپورٹ کی ’جامع تردید‘ کی ہے اور کہا ہے کہ مصنوعی ذہانت کے سافٹ ویئر میں تعصب کوئی مسئلہ نہیں ہے۔

نسٹ کے مطالعے میں ایلگورتھمز میں دو اقسام کی غلطیوں کی جانچ کی گئی:

  • غلط مثبت یعنی جس میں سافٹ ویئر غلط انداز میں دو مختلف افراد کی تصاویر کو ایک ہی شخص کی تصویر کہتا ہے
  • غلط منفی یعنی جس میں سافٹ ویئر ایک ہی شخص کی دو تصاویر کو پہنچاننے میں غلطی کرتا ہے۔

سافٹ ویئر کی جانچ کے لیے وزارت خارجہ، ہوم لینڈ سکیورٹی کے محکمے اور ایف بی آئی کی جانب سے فراہم کردہ ڈیٹا بیس کی تصاویر کا استعمال کیا گیا۔ اس میں سوشل میڈیا یا ویڈیو کے ذریعے نگرانی سے کوئی تصویر استعمال نہیں کی گئی۔

نسٹ کے کمپیوٹر سائنسدان اور رپورٹ کے بنیادی مصنف پیٹرک گروتھر نے کہا کہ ’تمام ایلگورتھمز پر کوئی بات کہنا غلط ہو گا۔ لیکن ہم نے چہرے پہچاننے والے جن ایلگورتھم کا مطالعہ کیا ان میں سے زیادہ تر میں ہمیں آبادی کے اختلافات کے تعلق سے عملی شواہد ملے۔

’اگرچہ ہم نے ان اختلافات کی وجوہات کو دریافت نہیں کیا لیکن یہ اعداد و شمار پالیسی سازوں، مصنوعی ذہانت بنانے والوں اور استعمال کرنے والوں کے لیے گراں قدر ہوں گے جو ان ایلگورتھمز کی حدود اور ان کے مناسب استعمال پر غور کریں گے۔‘

چین کی ایک کمپنی سینس ٹائم جس کی ایلگورتھم ناقص پائی گئی اس نے کہا کہ یہ ’بگز‘ کا نتیجہ ہے اور اب اسے درست کر لیا گيا ہے۔

ایک ترجمان نے بی بی سی کو بتایا: ’یہ نتائج ہماری مصنوعات کی ترجمانی نہیں کرتے کیونکہ یہ بازار میں آنے سے قبل جانچ کے مرحلے میں ہیں۔ یہی وجہ ہے کہ ہمارے تمام کمرشل حل میں اول درجے کی درستی ہوتی ہے۔‘

سین فرانسسکو، اوکلینڈ، کیلیفورنیا، سمرویلے اور میساچوسیٹس سمیت مختلف امریکی شہروں نے چہروں کی شناخت والی ٹیکنالوجی پر پابندی لگا رکھی ہے۔