queenarwauni

باحثون يحذرون من انفلات الذكاء الاصطناعي.. سيتفوق على البشر

اخبار اليوم الصحيفة, باحثون يحذرون من اخبار اليوم الصحيفة, باحثون يحذرون من

تتصاعد المخاوف من الذكاء الاصطناعي، بسبب قدرات التقنية، واحتمالية انفلاتها وخروجها عن السيطرة البشرية، الى التدمير.
وقال تقرير نشره موقع ساينس اليرت المتخصص بالعلوم والتكنولوجيا ان التحكم في ذكاء خارق يتجاوز بكثير الفهم البشري، ويتطلب محاكاة ذلك الذكاء الفائق الذي يمكننا تحليله، ولكن اذا كنا غير قادرين على فهمها، فمن المستحيل انشاء مثل هذه المحاكاة.
وقال التقرير انه لا يمكن وضع قواعد مثل لا تسبب ضرراً للبشر، اذا لم نفهم نوع السيناريوهات التي سياتي بها الذكاء الاصطناعي، حسب ما يقول الباحثون. وبمجرد ان يعمل نظام الكمبيوتر على مستوى اعلى من نطاق المبرمجين لدينا، لن يعود بامكاننا وضع حدود.
وكتب الباحثون في عام 2021: يطرح الذكاء الفائق مشكلة مختلفة اختلافا جوهريا عن تلك التي تدرس عادة تحت شعار اخلاقيات الروبوت. وهذا لان الذكاء الخارق متعدد الاوجه، وبالتالي يحتمل ان يكون قادرا على تعبئة مجموعة متنوعة من الموارد من اجل تحقيق اهداف يحتمل ان تكون غير مفهومة للبشر، ناهيك عن التحكم فيها.
وياتي جزء من استدلال الفريق البحثي من مشكلة التوقف التي طرحها الان تورينغ في عام 1936، وتتركز المشكلة على معرفة ما اذا كان برنامج الكمبيوتر سيصل الى نتيجة واجابة ام لا.
كما اثبت تورينغ من خلال بعض الرياضيات الذكية، بينما يمكننا ان نعرف انه من المستحيل منطقيا، بالنسبة لبعض البرامج المحددة، ايجاد طريقة تسمح لنا بمعرفة ذلك لكل برنامج محتمل يمكن كتابته في اي وقت. وهذا يعيدنا الى الذكاء الاصطناعي، والذي في حالة الذكاء الفائق يمكنه عمليا الاحتفاظ بكل برنامج كمبيوتر ممكن في ذاكرته في وقت واحد.
واي برنامج مكتوب لمنع الذكاء الاصطناعي من الحاق الضرر بالبشر وتدمير العالم، على سبيل المثال، قد يصل الى نتيجة ويتوقف ام لا من المستحيل رياضيا ان نتاكد تماما من ايّ من الحالتين، ما يعني انه غير قابل للاحتواء.
وقال عالم الكمبيوتر اياد رهوان، من معهد ماكس بلانك للتنمية البشرية في المانيا: في الواقع، هذا يجعل خوارزمية الاحتواء غير قابلة للاستخدام.
ويقول الباحثون ان البديل لتعليم الذكاء الاصطناعي بعض الاخلاقيات واخباره بعدم تدمير العالم وهو امر لا يمكن لاي خوارزمية ان تكون متاكد تماما من القيام به هو الحد من قدرات الذكاء الفائق. ويمكن قطعها عن اجزاء من الانترنت او من شبكات معينة، على سبيل المثال.
ووقع عمالقة التكنولوجيا في وقت سابق من هذا العام، بما في ذلك ايلون موسك والمؤسس المشارك لشركة ابل، ستيف وزنياك، خطابا مفتوحا يطلب من البشرية التوقف مؤقتا عن العمل على الذكاء الاصطناعي لمدة 6 اشهر على الاقل حتى يمكن استكشاف سلامته.
وجاء في الرسالة المفتوحة بعنوان ايقاف تجارب الذكاء الاصطناعي العملاقة مؤقتا: يمكن لانظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري ان تشكل مخاطر عميقة على المجتمع والانسانية. يجب تطوير انظمة ذكاء اصطناعي قوية فقط بمجرد ان نكون واثقين من ان اثارها ستكون ايجابية وان مخاطرها ستكون تحت السيطرة.باحثون يحذرون من انفلات الذكاء الاصطناعي.. سيتفوق على البشر

Scroll to Top