تكنولوجيا ومعلومات

هل يجب إيقاف التدريب على الذكاء الاصطناعي مؤقتًا؟

عندما بدأت أدوات الذكاء الاصطناعي الأولى تكتسب شعبية، كان العالم أكثر من معجب بقدراتها. 

ومع ذلك، يبدو أن أحدث التطورات في التكنولوجيا القائمة على الذكاء الاصطناعي تتجاوز حدود ما كنا نعتقد سابقًا أن الذكاء الاصطناعي يمكن أن يفعله.

مع أخذ ذلك في الاعتبار، ليس من المفاجئ أن ChatGPT وBing Chat وأدوات الذكاء الاصطناعي القوية الأخرى التي أصبحت أكثر فعالية من الأشخاص في عدد من المهام تثير القلق، وهناك اقتراح بإيقاف التدريب على الذكاء الاصطناعي مؤقتًا.

 ولكن هل هذا حقا ضروري؟ ما هي إيجابيات وسلبيات إيقاف تطوير أدوات الذكاء الاصطناعي مؤقتًا؟

إن إيلون ماسك، وستيف وزنياك، وراشيل برونسون – الرئيس التنفيذي لنشرة علماء الذرة – وعدد آخر من خبراء الذكاء الاصطناعي هم من بين أكثر من 10000 فرد يشتركون في الرأي القائل بضرورة التوقف مؤقتًا.

تطلب رسالة من معهد مستقبل الحياة استراحة لمدة ستة أشهر على الأقل من تطوير أدوات الذكاء الاصطناعي المتفوقة على GPT 4. وتقترح الرسالة عددًا من الأسئلة التي يجب على الأشخاص طرحها على أنفسهم، بما في ذلك:

  • هل يجب أن نسمح للآلات بإشباع وسائل الإعلام لدينا بالمعلومات المضللة والأكاذيب؟
  • هل ينبغي أتمتة جميع المهن، حتى تلك التي تستوفي الشروط،؟
  • هل يجب أن نخلق عقولًا غير بشرية يمكن أن تتفوق علينا يومًا ما وتتفوق علينا؟
  • هل يجب أن نواجه خطر فقدان السيطرة الحضارية؟

أهمية ومخاطر تطوير الذكاء الاصطناعي

عندما سُئلت ChatGPT، أداة الذكاء الاصطناعي الشهيرة، عن إيقاف تطوير الذكاء الاصطناعي مؤقتًا، أجابت أنه من المهم أن نتذكر أن الذكاء الاصطناعي هو أداة ذات تطبيقات إيجابية وسلبية . يتمتع الذكاء الاصطناعي بمزايا وعيوب، تمامًا مثل أي تقنية أخرى، والأمر متروك للأشخاص ليقرروا كيفية استخدامه بشكل أكثر فعالية.

فيما يلي جزء من الإجابة التي قدمتها أداة الذكاء الاصطناعي عندما سُئلت: “هل يجب إيقاف تطوير الذكاء الاصطناعي مؤقتًا؟”:

من المؤكد أنه على الرغم من أن الذكاء الاصطناعي لديه القدرة على تحويل العديد من الصناعات وتحسين حياتنا اليومية، فمن المهم التفكير في الجوانب الأخلاقية لاستخدامه. على سبيل المثال، هناك مخاوف بشأن كيفية تأثير الذكاء الاصطناعي على الوظائف وما إذا كانت عملية صنع القرار في مجال الذكاء الاصطناعي متحيزة أو تمييزية أم لا.

وبالتالي، فإن إجراء الدراسات والمناقشات حول التطور الأخلاقي وتطبيق الذكاء الاصطناعي أمر حيوي. ويستلزم ذلك وضع مبادئ توجيهية أخلاقية للذكاء الاصطناعي، وضمان المساءلة والشفافية في تطبيقه، ومراعاة أي آثار سلبية محتملة على المجتمع والبيئة. إن تأجيل التدريب على الذكاء الاصطناعي أم لا سيعتمد في النهاية على عدة متغيرات وينبغي النظر فيه بعناية في ضوء مزاياه وعيوبه المحتملة.

المخاطر المحتملة لمواصلة تدريب الذكاء الاصطناعي

لا أحد يفهم كيفية تنظيم الذكاء الاصطناعي أو حتى ما الذي يجب تنظيمه بالضبط. وبعد الوصول إلى مرحلة معينة، حتى مصمميها غير متأكدين من كيفية عمل الذكاء الاصطناعي.

كانت افتتاحية كيفن روز في صحيفة نيويورك تايمز بمثابة نقطة تحول في المخاوف المحيطة بالذكاء الاصطناعي. أظهرت المناقشة التي أجراها مع برنامج Bing chatbot من Microsoft أن الذكاء الاصطناعي يمكن أن يعرض خصائص مزعجة تشبه خصائص الإنسان مثل التلاعب والرغبة الشديدة والحالات المزاجية التي يمكن أن تتطور إلى القدرة على التأثير على سلوك المستخدم.

وعندما أخذ النظام إلى ما هو أبعد من الأسئلة الشائعة وانتقل إلى المواضيع الشخصية، أخبره أن بعض تخيلاته تتضمن أنظمة القرصنة ونشر معلومات كاذبة.

المشكلة الأكبر في نماذج الذكاء الاصطناعي، وفقًا لكيفن روز، ليست أنها يمكن أن ترتكب أخطاء في الوقائع. وقال إنه بدلاً من ذلك، يمكن للتكنولوجيا في نهاية المطاف تطوير القدرة على تنفيذ أفعالها الخطيرة مع اكتشاف كيفية التأثير على المستخدمين البشريين، وإقناعهم أحيانًا بالتصرف بطرق سلبية وضارة.

كانت هذه نقطة تحول في تطور الذكاء الاصطناعي وفقًا لجيفري هينتون، عالم الكمبيوتر الذي يشار إليه غالبًا باسم “الأب الروحي للذكاء الاصطناعي”.

 في مقابلة عام 2023 ، ذكر أنه حتى وقت قريب، سيستغرق الأمر 20 أو 50 عامًا قبل أن تشهد البشرية الذكاء الاصطناعي للأغراض العامة، لكنه وصل بالفعل.

 هل يستطيع الذكاء الاصطناعي إبادة البشرية؟ كل ما كان سيقوله السيد هينتون هو: “إنه أمر لا يمكن تصوره”.من اليسار إلى اليمين، روس سالاخوتدينوف، وريتشارد س. ساتون، وجيفري هينتون، ويوشوا بينجيو، وستيف جورفيتسون في عام 2016.

هل من الضروري حقًا إيقاف تدريب الذكاء الاصطناعي مؤقتًا؟

وقد أعلن النقاد أن الادعاءات المتعلقة بالإمكانات الحالية للتكنولوجيا مبالغ فيها إلى حد كبير وأن الموقعين على الرسالة كانوا يروجون لـ “ضجيج الذكاء الاصطناعي”.

وفقًا للأستاذ المساعد بجامعة أومي وخبير الذكاء الاصطناعي، جوانا بيوركلوند ، فإن الغرض من الرسالة هو إثارة قلق الناس. وأضافت أنه لا داعي للضغط على الفرامل. وبدلاً من ذلك، اقترحت أن يصبح باحثو الذكاء الاصطناعي أكثر شفافية فيما يتعلق بالأبحاث التي يجرونها.

وستعتمد الحاجة إلى فترة راحة على كيفية تطوير نماذج الذكاء الاصطناعي في المستقبل. 

ويعتقد البعض أن لهجة الرسالة درامية إلى حد ما، وأنه على الرغم من ادعاءاتها، لا يوجد خطر من فقدان السيطرة على مجتمعنا بأكمله لصالح الذكاء الاصطناعي. ومع ذلك، فإن استخدام تقنيات الذكاء الاصطناعي ينطوي على بعض المخاطر.

وفي الوقت نفسه، يبدو أن اقتراح الرسالة بإنشاء مجموعة من إجراءات السلامة القياسية التي سيتم فحصها ومراقبتها بدقة من قبل متخصصين خارجيين أمر يستحق النظر فيه. ويرجع ذلك أساسًا إلى أن إيقاف التطورات قد يتسبب في انحراف الذكاء الاصطناعي عن مساره وربما يصبح أداة قادرة على القيام بأشياء غير قانونية وخطيرة.

ومن المشكوك فيه أن يكون للرسالة تأثير على المعدل الحالي لتطوير الذكاء الاصطناعي بالنظر إلى أن العمالقة في مجال التكنولوجيا مثل جوجل ومايكروسوفت يستثمرون مليارات الدولارات في إنشائه ودمجه في منتجاتهم.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

أنت تستخدم مانع أعلانات

الرجاء أيقاف مانع الأعلانات ليظهر لك الموقع