بعد استخدامه ألفاظاً عنصريةً خارجة.. مايكروسوفت تضطر إلى إيقاف "روبوت الدردشة"

تم النشر: تم التحديث:
TAY TWEETS
other

بعد مرور أقل من 24 ساعة على استعانة مايكروسوفت Microsoft بروبوت يتفاعل مع متابعي حسابها الرسمي على تويتر، اضطرت الشركة الأميركية إلى إيقاف خاصية النشر من @TayandYou، وحذف العديد من التصريحات المُسيئة.

وكان من المفترض أن يستوعب الروبوت لغة الحوار عن طريق الحديث مع مستخدمي تويتر ومحاكاة اللغة التي يستخدمونها، إلا أن الأمور لم تسر على ما يرام.

الروبوت الذي تم تطويره من قبل وحدة البحث والتكنولوجيا لدى مايكروسوفت بالتعاون مع فريق عمل بينغ Bing، أصبح عنصرياً بسبب كل من قاموا بتحريضه على ذلك من مستخدمي تويتر.

فقد شكك بحصول الهولوكوست، واستخدم ألفاظاً غير قابلة للنشر مع النساء والأقليات، كما أيد الإبادة الجماعية، ونشر العديد من التغريدات غير اللائقة بإيعاز من متابعي الحساب الرسمي للشركة الأميركية.

ولكن لم يقتصر الأمر على ذلك فقط، فيبدو أن “تاي” - كما سُمي الروبوت -، اكتسبت بعض السلوكيات السيئة من تلقاء نفسه؛ إذ نقلت صحيفة New York Times الأميركية الجمعة 25 مارس/آذار 2016، أحد ردوده عندما تم سؤالها عن الممثل البريطاني ريكي جيرفيه، فكان جوابه “ريكي جيرفيه تعلم الشمولية من أدولف هتلر، مخترع الإلحاد”.

وبعد الحادثة، أصدرت مايكروسوفت بياناً صحافياً قالت فيه، “لسوء الحظ، بعد أقل من 24 ساعة على إطلاق الحساب، أدركنا محاولات بعض المستخدمين التلاعب بمهارت (تاي) في التعليق وجعلها تتجاوب بشكلٍ غير لائق، ونتيجة لذلك؛ قمنا بإيقاف الحساب الخاص بها وجارٍ القيام بتعديلات”.

كما قالت مايكروسوفت إن “تاي” كان مشروعاً للذكاء الاصطناعي، وتم تصميمه “للتواصل مع الناس وتسليتهم عن طريق إجراء محادثات عفوية ومرحة”، وتم إثراء معلومات الروبوت عن طريق تزويده بالكثير من البيانات العامة.

“تاي” تتبع تاريخاً طويلاً من محاولات البشر لصنع آلات تتمتع بالقدرة على مصادقتنا، ففي العام 1968، قام دكتور بمعهد ماساتشوستس للتقنية بتعليم جهاز حاسوب أن يتحادث مع غيره متقمصاً دور معالج نفسي.

كما يتذكر الكثيرون برنامج SmarterChild، والروبوت الودود على برنامج المحادثة AOL Instant Messenger، الذي كان دائماً متاحاً للدردشة أثناء عدم وجود أصدقائهم.

وهذه ليست المرة الأولى التي توقع فيها التكنولوجيا الآلية شركتها في المشاكل؛ ففي العام الماضي، اعتذرت جوجل عن خطأ في تطبيق الصور، حيث قام التطبيق بتصنيف الأشخاص ذوي البشرة السمراء على أنهم “غوريلا”.

- هذا الموضوع مترجم عن صحيفة The New York Times الأميركية. للاطلاع على المادة الأصلية، اضغط هنا.

حول الويب

مايكروسوفت تسحب روبوت الدردشة "تاي" بعد نشره رسائل عنصريّة

مايكروسوفت توقف "روبوت دردشة" ينشر رسائل عنصرية

"مايكروسوفت" توقف "روبوت دردشة" ينشر رسائل عنصرية - شبكة الشروق

ربوبوت "Tay" يتسبب في إحراج كبير لمايكروسوفت ! - المحترف

ربوبوت "Tay" يتسبب في إحراج كبير لمايكروسوفت ! - عيون الخليج

مايكروسوف تسحب الروبوت "تاي" بسبب "العنصرية" - إيلاف

مايكروسوفت توقف روبوت الدردشة تاي بعد تحريضه ضد السود والمهاجرين

مايكروسوفت تطلق تكنولوجيا جديدة باسم "تاى" للتحدث مع مستخدمى ...