رغم التطور التكنولوجي الذي تعاصره البشرية ضمن هذه الحقبة.. إلا أن هذا التطور بمثابة نصل ذو حدين.. ووسط تحذيرات بكونه سيحل محل العقل البشري تتجلى مخاوف أخرى تأخذ البشرية نحو مستقبل مظلم قد يبيد البشرية عن بكرة أبيها بضغطة زر.
مما حذر خبراء مجال الذكاء الاصطناعي حول العالم؟.. وما الذي حذر منه مؤسس شات جي بي تي؟.. وما هي احتمالات انقراض الحضارة الإنسانية؟.. كل هذا وأكثر تابعوه معنا في التقرير التالي:
نواقيس الخطر تدق
مع الانتشار الشاسع لاستخدام التكنولوجيا وإتاحة استخدامها للجميع وسهولة الوصول لها، حذر أكثر من 350 خبيراً في مجال الذكاء الاصطناعي حول العالم.. بما في ذلك مبتكر “شات جي بي تي”، من احتمال أن تتسبب هذه التكنولوجيا في انقراض البشرية.
حيث أُصدر بيان مشترك بدعم من الرؤساء التنفيذيين لشركات الذكاء الاصطناعي الرائدة ناشدوا البشرية فيه بالتخفيف من هذا الخطر، موضحين أن ذلك يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى، مثل المخاطر النووية.
مخاطر “جي بي تي”
وفي ذلك الصدد، أعرب العديد من الخبراء عن قلقهم إزاء أخطار استخدام نماذج مثل “تشات جي بي تي” لنشر المعلومات الخاطئة والهجمات السيبرانية.
فضلاً عن التسبب في تعطيل الوظائف على مستوى المجتمع، وفق تقرير لصحيفة “ذا تايمز” البريطانية، كذلك أقر البيان، الذي نسقه المركز الأمريكي لسلامة الذكاء الاصطناعي بهذه المخاوف.
انهيار الحضارة
وتوصلوا إلى إنه يجب كذلك مناقشة تهديدات أكثر خطورة، ولكنها أقل احتمالاً، علاوة على ذلك احتمال أن يتسبب تسريع وتيرة استخدام الذكاء الاصطناعي إلى انهيار الحضارة.
ويتوجس خيفة بعض علماء الكمبيوتر من أن هناك ذكاءً اصطناعيًّا فائقًا له اهتمامات مغايرة مع مصالح البشر، يمكن أن يحلّ محلنا أو يدمرنا عن غير قصد.بينما يقلق الآخرون من الاعتماد المفرط على الأنظمة التي لا نفهمها، وذلك يضعنا في مواجهة خطر كارثي إذا حدث خطأ.
بينما أوضح دان هيندريكس، مدير المركز الأمريكي لسلامة الذكاء الاصطناعي، أن البيان كان وسيلة للتعبير لكثير من الباحثين، وأن الكثير من الناس كانوا خائفين للغاية من التحدث في وقت سالف.
رفض للبيان
على صعيد آخر، رفض عدد من الأكاديميين البيان، ونعتوه بأنه غير مفيد، وعلق بعضهم بأنه خدعة هوليوود الرائجة، وأنه محض تشتيت عن القضايا الأخرى التي تواجهها البشرية.
فوصفت الدكتورة مهيري أيتكين، زميلة أبحاث الأخلاقيات في معهد آلان تورينج، الأمر بأنه إلهاء عن التهديدات الأكثر إلحاحاً من الذكاء الاصطناعي.
وقالت إن سرد الذكاء الاصطناعي الفائق هو حبكة مألوفة من عدد لا يحصى من أفلام هوليوود الرائجة، فيما كانت الدكتورة كاريسا فيليز، من معهد الأخلاقيات في الذكاء الاصطناعي بجامعة أكسفورد، تشكك في دوافع بعض الموقعين.
وقالت: أخشى أن التركيز على التهديد الوجودي يصرف الانتباه عن القضايا الأكثر إلحاحاً.. مثل تآكل الديمقراطية أو زوالها.. التي لا يريد الرؤساء التنفيذيون لشركات معينة مواجهتها.
وأوضحت أنه يمكن للذكاء الاصطناعي إحداث دمار هائل دون المخاطرة الوجودية.