اخبار اليوم الصحيفة, غوغل تفصل مهندسا اخبار اليوم الصحيفة, غوغل تفصل مهندسا
فصلت شركة غوغل احد مهندسيها، الذي قال ان نظام الذكاء الاصطناعي للشركة يمتلك مشاعر.
وكان بلايك ليموين اعلن، الشهر الماضي، عن نظريته القائلة ان تقنية غوغل اللغوية واعية، ويجب بالتالي احترام “رغباتها”.
ونفت غوغل وعدد من خبراء الذكاء الاصطناعي ما زعمه مهندسها ليموين، واكدت الجمعة انها اقالته.
وقالت غوغل في بيان ان مزاعم ليموين بشان نموذج اللغة لتطبيقات الحوار المعروف باسم لامدا “لا اساس لها على الاطلاق”، وان الشركة عملت معه “عدة اشهر” لتوضيح ذلك.
واوضح بيان للشركة: “لذلك، من المؤسف انه على الرغم من الانخراط المطول في هذا الموضوع، لا يزال بلايك يختار باستمرار انتهاك سياسات التوظيف وامن البيانات الواضحة التي تتضمن الحاجة الى حماية معلومات المنتج”.
ولامدا هي تقنية متطورة واداة الشركة لبناء روبوتات المحادثة.
والشهر الماضي، قال ليموين ان لامدا كانت تُظهر وعياً شبيهاً بالانسان، وهو ما اثار نقاشاً بين خبراء الذكاء الصناعي والمتحمسين بشان تطور التكنولوجيا المصممة لانتحال شخصية البشر.
وقال ليموين، الذي عمل مع فريق الذكاء الاصطناعي المسؤول في غوغل، لصحيفة واشنطن بوست، ان وظيفته كانت اختبار ما اذا كانت التكنولوجيا تستخدم خطابا تمييزيا او يحض على الكراهية.
ووجد ان لامدا اظهرت وعيا ذاتيا، ويمكنها اجراء محادثات حول الدين والعواطف والمخاوف. ودفع هذا ليموين الى الاعتقاد بان وراء مهاراته اللفظية المثيرة للاعجاب قد يكمن ايضا عقل واع.
ورفضت غوغل النتائج التي توصل اليها، وقالت في بيانها انها تاخذ التطوير المسؤول للذكاء الصناعي “على محمل الجد”، ونشرت تقريراً يفصّل ذلك.
واضافت ان اي مخاوف للموظفين بشان تكنولوجيا الشركة تتم مراجعتها “على نطاق واسع”، وان لامدا خضعت لـ11 مراجعة.
وبلايك ليموين ليس اول مهندس ذكاء صناعي يقول ان التقنية اصبحت اكثر وعياً. ففي الشهر الماضي ايضا، شارك موظف اخر في غوغل افكاراً مماثلة مع مجلة “الايكونوميست”.غوغل تفصل مهندسا زعم ان تقنيتها للذكاء الاصطناعي لها مشاعر
