تابع تفاصيل كيف نقلق بذكاء من “الذكاء الاصطناعيّ”؟ وقد تم طرح الخبر عبر عرب 48 .. تابع كيف نقلق بذكاء من “الذكاء الاصطناعيّ”؟
والتفاصيل عبر مزاج نيوز #كيف #نقلق #بذكاء #من #الذكاء #الاصطناعي
[ad_1]
أثار التسارع الأخير في قوة أنظمة الذكاء الاصطناعي ووضوحها ، والوعي المتزايد بقدراتها وعيوبها ، مخاوف من أن تكنولوجيا اليوم تتطور بسرعة كبيرة للغاية بحيث لا يمكن التحكم فيها بأمان. ومن هنا جاءت الدعوة للتوقف
“هل يجب أن نتمكّن من أتمتة جميع الوظائف ، بما في ذلك تلك التي ترضينا؟ هل يجب أن نطور عقولًا غير بشرية تتفوق علينا في النهاية وتتجاوز ذكائنا … وتحل محلنا؟ هل سنفقد السيطرة على حضارتنا؟” أثيرت هذه الأسئلة الشهر الماضي في رسالة مفتوحة من معهد مستقبل الحياة (منظمة غير حكومية). ودعت إلى “وقفة” مدتها ستة أشهر في تطوير أكثر أشكال الذكاء الاصطناعي تطوراً ، ووقعها شخصيات بارزة في مجال التكنولوجيا ، من بينها إيلون ماسك. هذا هو المثال الأكثر دراماتيكية حتى الآن حول كيف أن التطور السريع للذكاء الاصطناعي يثير مخاوف بشأن المخاطر المحتملة للتكنولوجيا.
فاجأت LLMs الجديدة ، على وجه الخصوص ، بعض مطوريها بقدراتهم غير المتوقعة ، وهي نفس النماذج المستخدمة بواسطة ChatGPT ، وهو روبوت محادثة صممه OpenAI. تشمل قدراته “المتقدمة” كل شيء من حل الألغاز المنطقية وكتابة كود الكمبيوتر إلى معرفة الأفلام من ملخصات الحبكة المكتوبة بالرموز التعبيرية.

ستغير هذه النماذج العلاقة الإنسانية مع أجهزة الكمبيوتر والمعرفة وحتى أنفسهم. يجادل أنصار الذكاء الاصطناعي بأنه يمكن أن يحل المشاكل الكبيرة عن طريق تطوير أدوية جديدة ، أو تصميم مواد جديدة للمساعدة في مكافحة تغير المناخ ، أو حل تعقيدات توليد الطاقة الاندماجية. بالنسبة للآخرين ، الأمر خطر ، لأن قدرات البرنامج بدأت تفوق من صنعه ، فأحياء سيناريو كارثة خيال علمي لآلة تجاوزت مخترعها ، وتنحو إلى عواقب وخيمة.
هذا المزيج من الإثارة والخوف يجعل من الصعب الموازنة بين الفرصة والمخاطرة. ولكن يمكن تعلم الدروس من الصناعات الأخرى ومن التغيرات التكنولوجية السابقة. ما الذي تغير لجعل الذكاء الاصطناعي أكثر قدرة؟ إلى أي مدى يجب أن نخاف؟ ماذا يجب أن تفعل الحكومات؟
هنا ندرس أعمال النماذج اللغوية الرئيسية واتجاهاتهم المستقبلية. اعتمدت الموجة الأولى من أنظمة الذكاء الاصطناعي الحديثة ، التي ظهرت قبل عقد من الزمن ، على بيانات التدريب المصنفة بعناية ، وبمجرد تعرضها لأمثلة مُصنفة كافية ، ستتعلم أداء أشياء مثل التعرف على الصور أو كتابة الكلام. لا تتطلب أنظمة اليوم تصنيفًا مسبقًا ، ونتيجة لذلك يمكن تدريبها باستخدام مجموعات بيانات أكبر مأخوذة من مصادر عبر الإنترنت. يمكن تدريب النماذج اللغوية الكبيرة بالكامل عبر الإنترنت ، مع شرح قدراتها ، سواء كانت جيدة أو سيئة.
أصبحت هذه القدرات واضحة لجمهور أوسع عندما أطلق ChatGBT في نوفمبر. استخدمه مليون شخص في أسبوع ، و 100 مليون في شهرين. سرعان ما تم استخدامه لتأليف المقالات المدرسية وخطب الزفاف. دفعت شعبية دردشة GPT وخطوة Microsoft لدمجها مع محرك بحث Bing الشركات المنافسة لإطلاق chatbots أيضًا.
وقد أدى بعضها إلى نتائج ملحوظة. اقترح روبوت محادثة في متصفح Bing على أحد المراسلين أن يترك زوجته. شات أستاذ القانون GBT متهم بالتشهير. تنتج النماذج اللغوية الكبيرة إجابات تحمل قدرًا من الحقيقة ، ولكنها غالبًا ما تحتوي على أخطاء واقعية أو تلفيقات صريحة. ومع ذلك ، بدأت Microsoft و Google وشركات التكنولوجيا الأخرى في دمجها في منتجاتها لمساعدة المستخدمين على إنشاء المستندات وأداء مهام أخرى.
أثار التسارع الأخير في قوة أنظمة الذكاء الاصطناعي ووضوحها ، والوعي المتزايد بقدراتها وعيوبها ، مخاوف من أن تكنولوجيا اليوم تتطور بسرعة كبيرة للغاية بحيث لا يمكن التحكم فيها بأمان. ومن هنا جاءت الدعوة إلى التوقف ، والقلق المتزايد من أن الذكاء الاصطناعي قد يهدد ليس فقط الوظائف ، والدقة الواقعية ، والسمعة ، ولكن الوجود ذاته للبشرية.
انقراض؟ تمرد؟
يعود الخوف من سرقة الآلات للوظائف إلى قرون. ولكن حتى الآن خلقت التكنولوجيا الجديدة وظائف جديدة لتحل محل تلك التي دمرتها. قد تكون الآلات قادرة على أداء بعض المهام ، دون غيرها ، مما يؤدي إلى زيادة حاجة البشر لأداء المهام التي لا تستطيع الآلات القيام بها. هل هذا وقت مختلف؟ لا يمكن استبعاد حدوث اضطراب مفاجئ في أسواق العمل ، حتى لو لم يكن هناك ما يشير إلى هذا الحدث. تميل التكنولوجيا السابقة إلى استبدال المهام غير الماهرة ، لكن نماذج اللغة الرئيسية يمكن أن تنهي بعض المهام باللون الأبيض ، مثل استخلاص المستندات وكتابة التعليمات البرمجية.
كان مستوى الخطر الوجودي الذي يشكله الذكاء الاصطناعي موضع نقاش ساخن. الخبراء منقسمون. في دراسة استقصائية لباحثي الذكاء الاصطناعي أجريت في عام 2022 ، اعتقد 48٪ أن هناك احتمالًا بنسبة 10٪ على الأقل أن يكون تأثير الذكاء الاصطناعي “شديدًا جدًا (مثل الانقراض البشري)”. لكن 25٪ قالوا إن الخطر هو 0٪. يقدر الباحث الوسيط الخطر عند 5٪. الحلم هو أن الذكاء الاصطناعي المتقدم يسبب ضررًا على نطاق واسع ، من خلال خلق السموم أو الفيروسات ، أو إقناع الناس بارتكاب أعمال إرهابية. لا يجب أن يكون لها نوايا سيئة: يخشى الباحثون أن يكون للذكاء الاصطناعي في المستقبل أهداف لا تتوافق مع البشر الذين يصنعونها.

لا ينبغي استبعاد مثل هذه السيناريوهات. لكنها كلها تنطوي على قدر هائل من التخمين ، وقفزة هائلة من التكنولوجيا المتاحة اليوم. يعتقد الكثيرون أنه في المستقبل ، سيكون للذكاء الاصطناعي وصول غير مقيد إلى الطاقة والمال وقوة الحوسبة ، وهي قيود حقيقية اليوم ، والتي لا ينبغي لأي ذكاء اصطناعي متمرد الوصول إليها في المستقبل. يميل الخبراء إلى المبالغة في تقدير المخاطر في مجالاتهم ، مقارنةً بالمتنبئين الآخرين (والسيد ماسك ، الذي أطلق شركة الذكاء الاصطناعي الخاصة به ، لديه مصلحة في أن يأخذ منافسيه أدواتهم). يبدو أن فرض قوانين ثقيلة أو إيقاف عمل الذكاء الاصطناعي أمر مبالغ فيه. علاوة على ذلك ، التعليق المؤقت غير قابل للتنفيذ.
هناك حاجة لتنظيم عمل الذكاء الاصطناعي ، ولكن لأسباب أقل أهمية من إنقاذ البشرية. تثير أنظمة الذكاء الاصطناعي الحالية مخاوف حقيقية بشأن التحيز والخصوصية وحقوق الملكية الفكرية. مع تقدم التكنولوجيا ، قد تظهر مشاكل أخرى. المفتاح هو تقييم وعود الذكاء الاصطناعي ، وتقييم مخاطره ، والاستعداد للتكيف معها.
حتى الآن ، اتبعت الحكومات ثلاثة مناهج مختلفة للتعامل مع التكنولوجيا الجديدة. تقترح بريطانيا نهجًا “خفيفًا” بدون قواعد أو ضوابط جديدة ، مع لوائح مطبقة على أنظمة الذكاء الاصطناعي. الهدف هو تعزيز الاستثمار وجعل بريطانيا “قوة عظمى في مجال الذكاء الاصطناعي”. تتخذ أمريكا نهجًا مشابهًا ، على الرغم من أن إدارة بايدن تسعى الآن للحصول على مساهمة عامة بشأن شكل التنظيم الذي ستفرضه.
يتخذ الاتحاد الأوروبي موقفاً أكثر تشدداً. يصنف القانون المقترح أدوات الذكاء الاصطناعي المختلفة حسب مستوى المخاطر ، ويتطلب مراقبة واكتشاف أكثر صرامة مع زيادة المخاطر ، على سبيل المثال ، من التوصيات الموسيقية إلى السيارات التي تقود نفسها. تُحظر تمامًا بعض استخدامات الذكاء الاصطناعي ، مثل الإعلانات التي تستند إلى التلاعب بوعي الجمهور والحصول على معلومات المقاييس الحيوية من الأشخاص عن بُعد ، وسيتم تغريم الشركات التي تنتهك القواعد. بالنسبة لبعض النقاد ، تبدو هذه القواعد مقيدة للغاية.
يجادل آخرون بأن هناك حاجة إلى نهج أكثر صرامة ، وأنه يجب على الحكومات التعامل مع الذكاء الاصطناعي مثل العقاقير ، مع هيئة مخصصة ، واختبار صارم وسلاسل موافقة.لم يتم إصدار البرنامج للجمهور بعد. فعلت الصين بعضًا من ذلك ، حيث طلبت من الشركات تسجيل منتجات الذكاء الاصطناعي والخضوع لمراجعة أمنية قبل إطلاقها. لكن دافع الصين سياسي وليس أمنيًا: أحد المتطلبات هو أن إنتاج الذكاء الاصطناعي يعكس “القيمة الأساسية للاشتراكية”.
ما المطلوب؟ من غير المحتمل أن تكون الطريقة خفيفة بدرجة كافية. إذا كان الذكاء الاصطناعي لا يقل أهمية عن التكنولوجيا مثل السيارات والطائرات والطب ، وكان هناك سبب وجيه للاعتقاد بذلك ، فنحن بحاجة إلى إنشاء قواعد وأنظمة جديدة لها. نموذج الاتحاد الأوروبي هو الأقرب إلى ما هو مطلوب ، على الرغم من أن نظام التصنيف الخاص به صارم ، ونحن بحاجة إلى تطوير طريقة تستند إلى مبادئ الاتحاد الأوروبي ، والتي ستكون أكثر مرونة. يتطلب من الشركات الكشف عن كيفية تدريب الأنظمة وكيفية عملها وكيفية مراقبتها ، وهذا يعني وجود سلطة تقوم بفحصها ، وفي ذلك الوقت العمل على تنظيمها بشكل مرن وقابل للمقارنة مع القواعد المماثلة في الصناعات الأخرى . .
قد يؤدي هذا إلى تشديد التنظيم بمرور الوقت ، إذا لزم الأمر ، ومن الطبيعي أن يكون هناك منظم مخصص للذكاء الاصطناعي ، وسيكون من الطبيعي وجود معاهدات حكومية دولية ، مماثلة لتلك التي تحكم الأسلحة النووية ، إذا كان هناك معقول. دليل على وجود تهديد وجودي. للحماية من هذا الخطر ، يمكن للحكومات إنشاء هيئة مثل CERN ، مختبر فيزياء الجسيمات ، يمكنه دراسة سلامة وسلوك الذكاء الاصطناعي ، وهي المجالات التي تكون فيها الشركات أقل حافزًا للاستثمار كما يريد المجتمع.
تقدم هذه التكنولوجيا القوية للإنسانية أخطارًا جديدة ، لكنها تقدم أيضًا فرصًا فريدة. تحقيق التوازن بين الاثنين يعني السير بحذر. المضي بحذر يعني إرساء الأسس التي يجب أن نبني عليها المزيد من التنظيمات والقواعد في المستقبل. الآن ، حان الوقت لوضع الأساس.
تابع تفاصيل كيف نقلق بذكاء من “الذكاء الاصطناعيّ”؟ وقد تم طرح الخبر عبر عرب 48 .. تابع كيف نقلق بذكاء من “الذكاء الاصطناعيّ”؟
والتفاصيل عبر مزاج نيوز #كيف #نقلق #بذكاء #من #الذكاء #الاصطناعي
المصدر : عرب 48