العدد 4949 - الجمعة 25 مارس 2016م الموافق 16 جمادى الآخرة 1437هـ

مايكروسوفت تعتذر عن الرسائل العنصرية التي نشرتها "Tay"

الوسط - المحرر التقني 

تحديث: 12 مايو 2017

قدمت شركة مايكروسوفت من خلال تدوينة نشرتها على موقعها، اعتذارها عن التغريدات العنصرية التي نشرها روبوت الذكاء الاصطناعي "تاي" Tay، والذي كانت قد أوقفته بعد أقل من 24 ساعة على طرحه. وذلك وفق ما نقله موقع البوابة العربية للأخبار التقنية اليوم السبت (26 مارس/ آذار 2016).

وكتب "بيتر لي" رئيس الأبحاث في مايكروسوفت شارحاً ما حدث، ومؤكداً بأن ما بدر من "Tay" لا يُعبّر عن مايكروسوفت، ولا عن الكيفية التي تم فيها تصميم الروبوت.

و"Tay" وهو عبارة عن برنامج يُمثّل شخصية افتراضية لفتاة مراهقة يُمكن لها الدردشة مع المُستخدمين والإجابة على أسئلتهم. وقد طوّرت الشركة الروبوت بواسطة تقنية الذكاء الاصطناعي "Artificial Intelligence" وقالت أن  "Tay" تستطيع أن تتعلّم وتُحسّن من أجوبتها تدريجيًا من خلال الدردشات التي تقوم بها. لكن "Tay" تحوّلت إلى أداة لنشر العنصرية والكراهية، حيث بدأ حسابها الروبوتي على تويتر بنشر رسائل تُمجّد النازية وهتلر، وتُحرّض ضد السود والمُهاجرين وتدعو إلى التطهير العرقي.

وقد حاول "بيتر لي" شرح ما حدث، قائلاً بأن "Tay" هي ليست أول تجربة لتطبيق بتقنية الذكاء الاصطناعي أطلقته مايكروسوفت، حيث سبق وأطلقت الروبوت "XiaoIce" في الصين وقد استخدمه حوالي 400 مليون مُستخدم للدردشة وتبادل الأحاديث، وبحسب مايكروسوفت فقد كانت هذه التجربة ناجحة جداً مما دعاها لتجربة الروبوت  "Tay" الموجه للأمريكيين بين عمر 18 إلى 24 عاماً. وذكرت الشركة أنها أثناء تطوير  "Tay" حرصت على اختبار الروبوت في مختلف الظروف وسعت كي يقدم تجربة إيجابية خالية من المشاكل.

لكن حدث ما وصفتها الشركة بـ "هجمات مُنسّقة" من قبل أشخاص تمكنوا من استغلال ثغرة في نظام  "Tay" مكنتهم من بث الأفكار العنصرية وأفكار الكراهية التي كررها الروبوت الذي يُمكن له أن يتعلّم ويطوّر معارفه من خلال تفاعله مع الآخرين. ورغم أن مايكروسوفت طوّرت  "Tay" بشكل لا يُتيح التلاعب بها، إلّا أنها غفلت عن هذا النوع من الهجمات تحديداً بحسب الشركة.

وأخيراً، قالت الشركة أن أمامها تحد الآن لتحسين أبحاث الذكاء الاصطناعي لتفادي مثل هذه الحوادث مُستقبلا.





التعليقات
تنويه : التعليقات لا تعبر عن رأي الصحيفة

  • أضف تعليق أنت تعلق كزائر، لتتمكن من التعليق بـ3000 حرف قم بـتسجيل عضوية
    اكتب رمز الأمان

اقرأ ايضاً