أعلن مستشار رئيس الوزراء البريطاني للتكنولوجيا ، ريشي سوناك ، أن الذكاء الاصطناعي يمكن أن يصبح قويًا بما يكفي “لقتل العديد من الأشخاص” في غضون عامين فقط ، محذرًا من أن “الخطر الوجودي الذي يتم الحديث عنه هو ما سيحدث بمجرد أن نخلق المزيد ذكاء.

” من البشر “.

ونقلت صحيفة “إندبندنت” البريطانية عن مات كليفورد قوله: “ما لم يتم تنظيم منتجي ومطوري الذكاء الاصطناعي على نطاق عالمي ، فقد تظهر أنظمة” قوية للغاية “يمكن أن يكافح البشر للسيطرة عليها”.

بعد أيام ، عاد سام التمان ، الرئيس التنفيذي لشركة OpenAI ، ليقول إنه كان خائفًا من الذكاء الاصطناعي التوليدي الذي ساعد في تطويره. في مقابلة مع صحيفة تايمز أوف إنديا ، قال ألتمان إنه تعرض لضغوط شديدة لدرجة أنه أصيب بالأرق بعد إطلاق برنامج الدردشة ChatGPT AI.

وقال للصحفيين إن شركة أوبن إيه آي قامت “بشيء سيء حقًا” ، مضيفًا أنه لا يعتقد أن إطلاق “دردشة GBT” كان أمرًا سيئًا في حد ذاته ، ولكن من خلال إطلاق الروبوت ، فقد فات الأوان ولم يفعل.

سيكون لها تأثير كبير على ما سيحدث بعد ذلك. الذي – التي. أدلى ألتمان بعدة تصريحات حول مخاوفه بشأن مستقبل الذكاء الاصطناعي ، والمخاوف بشأن المنافسين الذين قد يبتكرون خوارزميات شريرة. ثم قرر التوقيع على خطاب مفتوح يحذر من أن “الذكاء الاصطناعي سيؤدي إلى انقراض البشرية”.

وسط كل هذه التحذيرات التي تعني أن الذكاء الاصطناعي يمكن أن يصبح قاتلًا وحشيًا يمكن أن يقضي على البشر ، طالب المسؤولون البريطانيون بالسرعة والضرورة لتنظيم منتجي ومطوري الذكاء الاصطناعي على نطاق عالمي ، وإنشاء أنظمة قوية جدًا تمكن الجميع للسيطرة على هذه التكنولوجيا الجديدة.

ردا على ذلك ، قال حسن حامد ، خبير تكنولوجيا المعلومات المصري ، لـ “العربية” إنه من الممكن بالطبع أن يخرج الذكاء الاصطناعي عن سيطرة الإنسان بسبب قدرته على اتخاذ قرارات مستقلة ، ولكن بالنظر إلى الوضع الحالي للذكاء الاصطناعي ، فإنه من غير المحتمل أن يحدث هذا على المدى القصير.

وتابع: “من ناحية أخرى ، فإن الخطر الأكبر في الذكاء الاصطناعي ليس بالضبط خارج نطاق السيطرة ، بل استخدامه بطريقة غير أخلاقية من قبل الدول التي تقوم بتطويره ، واعتباره سباق تسلح من نوع جديد فرض سيطرتها على المشهد في المرحلة المقبلة “.

وشدد الخبير المصري على ضرورة عدم تغيب القوانين التي تنظم العمل في مجال الذكاء الاصطناعي ، حيث سيؤدي ذلك إلى إصدارها بأثر رجعي بعد وقوع عواقب غير متوقعة ، نظرا لغموض الرؤية الحالية لمستقبله ودقته.

حدود قدراتها.

وأضاف أن الخطر الحتمي الذي يجب مناقشته الآن ليس خروج الذكاء الاصطناعي عن السيطرة ، بل سباق التسلح المحموم الذي بدأ بالفعل في السيطرة على هذا المجال.

المصدر: العربية نت.