العدد 5708
الجمعة 31 مايو 2024
banner
ChatGTP5...رعب أكبر من هذا سوف يجيء
الجمعة 31 مايو 2024

يستوقفني تشابه المقاطع الصوتية للأسماء، ويشغلني تأمل المصائر المتشابهة لها، ثمة تشابه بين اوبن ايه اي، وبين أوبنهايمر، كلا الاسمين يمثلان علامة فارقة في التاريخ الإنساني، بل وتهديد لوجود البشرية، رغم محاولات ـ مشكوك في جديتها ـ نحو ترشيد التهديد.

أوبنهايمر أشرف على اختراع القنبلة النووية، ورأى بعينيه مصائر ضحايا اختراعه، وأبدى ندما، بيد إن ذلك لم يردعه عن مساعدة حاييم وايزمان، أول رئيس لإسرائيل، على امتلاك قنبلة نووية.

أما أوبن ايه اي، فهي على وشك إنتاج الجيل الخامس من الذكاء الصناعي، رغم استقالة اثنين من مؤسسي التطبيق، لانعدام الضوابط الأخلاقية لدى اللجنة التي كانت مشكلة لكبح جماحه.

جاء تشكيل فريق جديد معني بالسلامة والأمن بشركة اوبن اي ايه OpenAI، مشكوكا في نزاهته، لأنه يضم في عضويته الرئيس التنفيذي للشركة وأعضاء بالمجلس، من أصحاب المصلحة في أقصى تطوير، في سباق التسلح العالمي بتلك التقنيات المرعبة.

وتبرز قضية الممثلة سكارليت جوهانسون وشركة اوبن ايه اي، كنموذج بارز لتلك المخاطر، حيث تعكس التحديات المعاصرة المتعلقة بالملكية الفكرية والخصوصية.

قضية سكارليت جوهانسون ضد شركة OpenAI أثارت قلقًا كبيرًا حول استخدام تقنيات الذكاء الاصطناعي دون موافقة الأشخاص المعنيين، فقد قامت الشركة باستخدام صوت جوهانسون لتدريب نموذجها الصوتي الجديد "Skynet" دون علمها أو موافقتها، مما يعد انتهاكًا صارخًا لحقوقها ويثير تساؤلات جوهرية حول ملكية البيانات الشخصية في عصر الذكاء الاصطناعي.

لم تعترف الشركة بخطئها أو تعتذر عنه، بل مضت في محاولات التفاهم مع الممثلة، حتى وصلت الأمور لطريق مسدود.

تتعدى قضية سكارليت كونها مسألة فردية تخص الملكية الفكرية لصوت نجمة، بل تشير إلى أنه لا مساعي جدية لدى الشركات لطمأنة البشرية المهددة بهذه المخاوف.

وجاءت استقالة أعضاء مؤسسين من فريق لجنة السلامة السابق بالشركة، لتشي بوجود خلافات داخلية حول أولوية الأمان، وفي تغريدة على إكس لـ "يان ليك" المؤسس بالشركة وعضو اللجنة، قال ليك إنّه استقال بسبب وصول الجانبين (المنتج والأمان) إلى نقطة الانهيار.

وأضاف أن فريق الأمان كان يواجه صعوبات داخلية وأن “ثقافة الأمان أصبحت ثانوية أمام المنتجات الجديدة”.

كان الكلام وقتها على الإصدارات السابقة والحالية من تطبيقات الذكاء الصناعي، بينما تستعد الشركة لإصدار جديد، أكثر رعبا.

وتضم اللجنة الجديدة أعضاء من مجلس الإدارة والرئيس التنفيذي، مما يثير تساؤلات حول مدى استقلاليتها وفعالية عملها في تحقيق الأمان المطلوب.

الآن، يجب على اللجنة أن تظهر استقلاليتها وشفافيتها في عملها، وأن تضم خبراء من مختلف المجالات لضمان تحقيق توازن بين التقدم التكنولوجي وسلامة البشرية.

هنا، ومع تفضيل شركات الذكاء الصناعي لمصالحها على الأخلاق والضوابط، يجب على الحكومات أن تتبنى سياسات تنظيمية صارمة لضمان الاستخدام الأخلاقي للذكاء الاصطناعي، وتوفير إطار قانوني يحمي حقوق الأفراد.

أيضا، ثمة أهمية لتوعية الجمهور حول مخاطر وفوائد الذكاء الاصطناعي ضرورة ملحة، لضمان تفهم الجميع للتحديات والمزايا المرتبطة بهذه التكنولوجيا.

كما يجب على الأفراد أن يكونوا على دراية بكيفية حماية بياناتهم الشخصية، وأن يطالبوا بحقوقهم في هذا السياق.

أخيرا، يتعين علينا التفكير في الذكاء الاصطناعي كأداة يمكن أن تكون إما تهديدًا أو فرصة، اعتمادًا على كيفية استخدامه وتوجيهه بضوابط أخلاقية.

صحيفة البلاد

2024 © جميع الحقوق محفوظة, صحيفة البلاد الإلكترونية .