queenarwauni

يمكنها كتابة التغريدات والقصائد الشعرية.. تعرّف على خوارزمية “جي بي تي-3”

اخبار اليوم الصحيفة, يمكنها كتابة التغريدات اخبار اليوم الصحيفة, يمكنها كتابة التغريدات

تملك خوارزمية الذكاء الاصطناعي المتقدمة الجديدة لتوليد النصوص “جي بي تي-3” (GPT-3) القدرة على كتابة التغريدات والقصائد الشعرية، وتلخيص رسائل البريد الالكتروني، والترجمة من والى لغات عدة بل وحتى كتابة برامج الحاسوب الخاصة بها.
وفي تقرير نشرته صحيفة “نيويورك تايمز” (New York Times) الاميركية، قال الكاتب كيد ميتز ان شركة “اوبن ايه اي” (OpenAI) الناشئة لابحاث الذكاء الاصطناعي في سان فرانسيسكو كشفت عن تطويرها خوارزمية “جي بي تي-3” الجديدة القادرة على انتاج النصوص.
وامضت الشركة اشهرا في تطوير النظام الجديد من خلال تلقينه مداخل ومخارج اللغة الطبيعية عبر تحليل الاف الكتب الرقمية، وجميع محتوى ويكيبيديا، وما يقارب تريليون كلمة نُشرت على المدونات، ومنصات التواصل الاجتماعي، والانترنت بوجه عام.
وذكر الكاتب ان مكاي ريغلي، وهو مبرمج حواسيب يبلغ من العمر 23 عاما من مدينة سولت ليك، كان من المبرمجين القليلين الذين تمت دعوتهم لمعالجة هذا النظام القادر على توظيف زاده المعرفي من النصوص الرقمية لتوليد نصوص جديدة بنفسه. وقد تساءل ريغلي عما اذا كان بامكان هذا النظام تقليد الشخصيات العامة، والكتابة باسلوبها، وربما حتى الدردشة مثلها.
وفي الاسابيع التي تلت ابتكارها، خضعت خوارزمية “جي بي تي-3” لعشرات الاختبارات المثيرة للدهشة، من كتابة التغريدات والقصائد الشعرية، وتلخيص رسائل البريد الالكتروني، الى الاجابة عن اسئلة الثقافة العامة، والترجمة من والى لغات عدة بل وحتى كتابة برامج الحاسوب الخاصة بها.
واذهلت هذه المهارات الخبراء، وعدّ كثير من الباحثين في مجال الذكاء الاصطناعي ان هذه الخطوة غير متوقعة في مجال الالات التي يمكنها فهم تقلبات اللغة البشرية، وربما حتى التعامل مع المهارات البشرية الاخرى.
واشار الكاتب الى ان خوارزمية “جي بي تي-3” ليست خالية من العيوب، فغالبا ما تولّد لغة متحيزة وسامة. وعندما طلب من هذه الاداة توليد 10 فقرات متبعة اسلوب عالم النفس سكوت باري كوفمان، كانت الفقرات الخمس الاولى مقنعة لكن الخمس المتبقية لم تكن كذلك. وعندما دردش مع شبيهه من الذكاء الاصطناعي، لم يكن كوفمان منبهرا كما حدث معه في البداية.
ولكن حتى بوجود هذه الاخطاء، بدت المحادثة حقيقية، وهو ما يعكس ما يمكن للنظام فعله بنفسه دون ادخال مزيد من التعديلات عليه.
ويعدّ هذا النظام تتويجا لاعوام من العمل الدؤوب داخل مختبرات الذكاء الاصطناعي الرائدة في العالم، بما في ذلك المختبر التابع لمؤسسة “اوبن ايه اي” -التي تدعمها شركة “مايكروسوفت” بتمويل قدره مليار دولار اميركي- والمختبرات التابعة لشركتي “غوغل” و”فيسبوك”.
ويُذكر ان شركة غوغل تمتلك نظاما مشابها يساعد في الاجابة عن الاستفسارات على محرك بحث الشركة.
واوضح الكاتب ان هذه الانظمة -المعروفة باسم قوالب اللغات العالمية- يمكن ان تساعد في تشغيل مجموعة واسعة من الادوات، على غرار الخدمات التي تلخص تلقائيا المقالات الاخبارية و”روبوتات الدردشة” المصممة للمحادثات عبر الانترنت. وحتى الان، كان تاثير هذه الانظمة في تكنولوجيا الواقع ضئيلا.
ولكن خوارزمية “جي بي تي-3” التي تعلمت من مجموعة اكبر بكثير من النصوص عبر الانترنت مقارنة بالانظمة السابقة يمكنها ان تفتح المجال امام مجموعة واسعة من الاحتمالات الجديدة، مثل البرامج التي يمكنها تسريع تطوير تطبيقات الهواتف الذكية الحديثة، او روبوتات الدردشة التي باستطاعتها التواصل باسلوب بشري اكثر مقارنة بالتقنيات السابقة.
وفي الوقت الذي يستكشف فيه مصممو البرمجيات ورجال الاعمال والنقاد والفنانون هذا النظام، فان كل تجربة جديدة تثير جدلا محتدما بشان الامكانات التي يمكن ان يكتسبها هذا النوع من التكنولوجيا في نهاية المطاف. وفي حين يزعم البعض ان هذا النظام قد يمهد الطريق امام ظهور الات ذكية بالفعل، فان البعض الاخر يرى ان هذه التجارب تعدّ مضللة ايضا.
هل استخدامه امن؟
تخطط شركة “اوبن ايه اي” لتحويل نظام “جي بي تي-3” الى منتج تجاري يمكن استخدامه على نطاق واسع. وقد وصف جيروم بيسنتي، نائب رئيس الذكاء الاصطناعي في فيسبوك، هذا النظام بانه “غير امن”، مشيرا الى اللغة العنصرية والسامة التي استعملها النظام عندما طُلب منه مناقشة موضوعات تتعلق بالنساء والسود واليهود.
وقد يكون هذا احد اسباب عرض شركة “اوبن ايه اي” لهذا النظام مع عدد قليل فقط من المختبرين. وصمّم مختبر الشركة مرشحات تحذّر من احتمال ظهور لغة سامة، ولكنها لن تكون ناجعة في حل مشكلة لا يعلم احد كيفية حلها.
ونقل الكاتب عن ليزا اوسوليفان، نائبة رئيس شركة “ارثر” التي تساعد الشركات في ادارة سلوك تقنيات الذكاء الاصطناعي، ان المسؤولية تقع في نهاية المطاف على عاتق الشركة.
ويشعر خبراء اخرون بالقلق من ان نماذج توليد نصوص مثل هذه يمكن ان تساعد في نشر المعلومات المضللة عبر الانترنت، مما يزيد من الحملات التي ربما تكون قد ساعدت على التاثير في الانتخابات الرئاسية لعام 2016.
وينبئ هذا النظام بمستقبل قد لا نكون فيه متاكدين مما اذا كان ما نقرؤه حقيقيا ام مزيفا، وهذا ينطبق على التغريدات والمحادثات عبر الانترنت وغيرها من المحتوى الرقمي.
العيوب التي لا يلاحظها احد
صمّم جوزيف وايزنباوم، الباحث في معهد ماساتشوستس للتكنولوجيا، في منتصف الستينيات معالجا نفسيا اليا اطلق عليه اسم “اليزا”. وعلى عكس خوارزمية “جي بي تي-3″، لم تتعلم اليزا من النصوص، بل من خلال قواعد قليلة حددها مصممها.
وكانت الى حد كبير تقوم بتكرار كل ما يُقال لها بصيغة سؤال، ولكن ما اثار دهشة الدكتور وايزنباوم هو ان العديد من الاشخاص تعاملوا مع الروبوت كما لو كان انسانا، وتحدّثوا عن مشكلاتهم دون تحفّظ.
واشار الكاتب الى ان هذا جزء فقط مما يحدث مع خوارزمية “جي بي تي-3″؛ فنظرا لانها قادرة على توليد تغريدات مقنعة ومنشورات مدونة ورموز حاسوب، نرى جانبا من الانسانية في هذا النظام الرقمي ونولي اهتماما اقل لنقائصه.
ولا شك ان “جي بي تي-3” اداة جديدة للباحثين ورجال الاعمال في عالم الذكاء الاصطناعي، وطريقة لبناء جميع انواع التقنيات والمنتجات الجديدة، ولكن يظل مدى فعالية الخدمات التي تقدمها في نهاية المطاف غير واضح.
وبما ان خوارزمية “جي بي تي-3” تولّد النص الصحيح في اغلب الاوقات فقط، فهل يمكنها ارضاء المحترفين؟ من غير الواضح ايضا ما اذا كانت هذه التقنية ستمهد الطريق نحو تصميم الات محادثة حقيقية، فضلا عن انظمة ذكية بالفعل.يمكنها كتابة التغريدات والقصائد الشعرية.. تعرّف على خوارزمية “جي بي تي-3”

Scroll to Top