+A
A-

لما نحمان: الذكاء الاصطناعي يسبب قلق لدى الناس من اتخاذ القرارات

قالت المتحدثة في إحدى المحاضرات بمعرض “we make future” في بولونيا، لما نحمان، إن هناك الكثير من التحديات تواجه الإنسان بسبب الذكاء الاصطناعي، منها أن الذكاء الاصطناعي يستولي على وظائف البشر، اذ تتخذ خوارزميات الذكاء الاصطناعي قرارات متحيزة، ويؤدي تشخيص الذكاء الاصطناعي إلى أخطاء طبية تعرض المرضى للخطر، وتحدد تقنية الوجه بالذكاء الاصطناعي خطأً الأشخاص الأبرياء كمجرمين، وتفشل روبوتات الدردشة التي تعمل بالذكاء الاصطناعي في توفير الدعم للعملاء، ويشكل الذكاء الاصطناعي تهديدًا خطيرًا لخصوصية وأمن المستخدمين.

وأضافت نحمان: "البيانات الشخصية لأسلحة الذكاء الاصطناعي يمكن أن تثير سباق تسلح عالمي وتزيد من خطر الحرب، ويمكن اختراق أنظمة الذكاء الاصطناعي واستخدامها لأغراض ضارة مثل الهجمات الإلكترونية، والبصمات الكربونية وكيف يساهم الذكاء الاصطناعي في تغير المناخ، فقد أنتج الذكاء الاصطناعي مقاطع فيديو مزيفة عميقة قادرة على تفسير سبب انتشار التضليل والدعاية، التحدي المتمثل في تصميم الذكاء الاصطناعي للعالم الحقيقي، كيفية بناء نظام التعلم الآلي ".

وأشارت الى أنه على مدار السنوات العشر الماضية أو نحو ذلك، هناك الكثير من المخاوف الموجودة بسبب الذكاء الاصطناعي، وذلك لأن الجميع رأى مشكلات تتعلق بالخصوصية والأمن مع المعلومات الخاطئة.

وتابعت: "هناك كل هذه المخاوف التي تظهر باستمرار، لقد بدأنا بنية النظر في ذلك مرة أخرى في عام 2016 والتفكير في كيفية تطوير أطر الذكاء الاصطناعي المسؤولة التي يمكن أن تساعدنا".

وذكرت أنها تعمل في هذا المجال وتحاول إيجاد حل لكيفية تطوير أطر الذكاء الاصطناعي، والسبب الذي جعلها تقرر القيام بذلك هو تمكين الإيمان العميق من التلاعب بالناس"، موضحه أنه من الصعب جدًا على الناس فهم ما إذا كان هناك شيء مستقر أم لا؟

وأشارت الى أنهم قاموا بدراسة لاكتشاف ما إذا كان الناس بإمكانهم معرفة الفرق بين الصحيح والخاطئ، إلا أنه تبين أن قدرة الأشخاص على اكتشاف هذه الأشياء سيئة للغاية.

وأوضحت: "لذلك بدأنا في التفكير فيما نفعله مثل ما هي الطرق الأخرى التي يمكننا طرحها على الطاولة لإصلاح هذه المشكلة، فكرنا في هل يمكننا استخدام الذكاء الاصطناعي لمكافحة الذكاء الاصطناعي".

وأفادت أن الذكاء الاصطناعي في وقتنا الحاضر يظهر بالعديد من الصور التي ممكن أن تساهم في وقوع الناس في مشاكل، منها تغير الصوت أو تقليده، بالإضافة الى تقليد شكل البشر والخروج في مقطع فيديو عبر منصات التواصل الاجتماعي.

ولفتت الى أنهم تعلموا على اكتشاف الفروقات من خلال النقاط المختلفة على الوجه والتي تحتوي على جميع إشارات PPG بشكل صحيح، ونأخذ إشارات PPG تلك ثم نقوم بشكل أساسي بإنشاء خرائط EPG التي تظهر هذا التغيير في الوقت المناسب وعبر العالم.

وتابعت: " الفكرة هي إذا أخذت كل هذه النقاط من مقاطع الفيديو المزيفة مقابل مقاطع الفيديو الحقيقية، وقمت بتدريب نموذج التعلم الآلي على تمييز الاختلافات بين مقاطع الفيديو المزيفة ومقاطع الفيديو الحقيقية، فيمكنك أن تكون قادرًا فعليًا على مساعدة الإنسان على فهم الفرق بين الاثنين".

وأشارت الى أنهم قرروا فعلا في هذه التجربة إعادة الذكاء إلى الطاولة وجعلهم ينظرون إليه ويكونون قادرين على فهم ما إذا كانت هذه المرحلة المحددة، هل هناك شيء يقال في هذا الفيديو الذي يبدو غير عادي، بحيث يمكن أن يجلب بعضًا من الذكاء البشري جنبًا إلى جنب مع ما يفعله النظام، وهو قادر على النظر إلى إشارات الاكتشاف هذه في الواقع.

وأفادت أن الأمر مقلق حقًا عندما تفكر في كيفية مواجهة الذكاء الاصطناعي.

واختتمت قائلة :" كبشر نحن مهيأون للإيمان بما نسمعه وما هو عليه وما نبدأ في تدوينه في الواقع بكل ما نسمعه ونراه، فهو حقًا يمثل مشكلة كبيرة لأنه سيستفزنا حيث لا يمكننا حتى اتخاذ القرارات بسبب هذا القلق".