يكمن خطر وجود آلات تعمل بالذكاء الاصطناعي في حياتنا في أننا قد لا نكون حذرين بما فيه الكفاية بشأن ما نتمناه.
ستفتقر أسطر التعليمات البرمجية التي تحرك هذه الأجهزة حتماً إلى الفروق الدقيقة، وتنسى توضيح التحذيرات، وينتهي الأمر بإعطاء أهداف وحوافز لأنظمة الذكاء الاصطناعي لا تتوافق مع تفضيلاتنا الحقيقية.
طرح فيلسوف أكسفورد نيك بوستروم تجربة فكرية كلاسيكية الآن توضح هذه المشكلة، تخيل بوستروم روبوتًا فائق الذكاء، مبرمجًا بهدف يبدو أنه غير ضار وهو تصنيع مشابك الورق، في النهاية يحول الروبوت العالم بأسره إلى مصنع مشبك ورق عملاق.
المثال الأكثر إثارة للقلق هو الذي يؤثر على مليارات الأشخاص، يهدف يوتيوب إلى زيادة وقت المشاهدة إلى أقصى حد، وينشر خوارزميات توصية المحتوى القائمة على الذكاء الإصطناعي.
قبل عامين، بدأ علماء الكمبيوتر والمستخدمون في ملاحظة أن خوارزمية يوتيوب بدت وكأنها تحقق هدفها من خلال التوصية بمحتوى متطرف ومتآمر على نحو متزايد.
أفادت إحدى الباحثات أنها بعد أن شاهدت لقطات من تجمعات حملة دونالد ترامب، عرضت يوتيوب بعد ذلك مقاطع الفيديو الخاصة بها التي تعرض “صيحات التفوق الأبيض، وإنكار الهولوكوست ومحتويات أخرى مزعجة”.
وقالت إن نهج الخوارزمية المتصاعد تجاوز السياسة: “أدت مقاطع الفيديو حول النظام النباتي إلى مقاطع فيديو حول النباتيين، وأدت مقاطع الفيديو حول الركض إلى مقاطع فيديو حول الجري في سباقات Ultramarathons”.
إقرأ أيضا:تطبيق Uhive: الربح من الانترنت للبسطاء في الويب 3.0نتيجة لذلك، تشير الأبحاث إلى أن خوارزمية يوتيوب تساعد في استقطاب الأشخاص وتطرفهم ونشر المعلومات المضللة، فقط لإبقائنا نشاهدها.
قال ديلان هادفيلد مينيل، باحث في الذكاء الاصطناعي في جامعة كاليفورنيا: “إذا كنت أخطط للأشياء، فربما لم أقم بعمل أول حالة اختبار لكيفية طرح هذه التكنولوجيا على نطاق واسع”.
ربما لم يقصد مهندسو يوتيوب نشر التطرف لكن المبرمجين لا يمكن أن يفكروا في كل شيء، قال هادفيلد مينيل: “إن الطريقة الحالية التي نؤدي بها الذكاء الإصطناعي تضع عبئًا كبيرًا على المصممين لفهم عواقب الحوافز التي يقدمونها لأنظمتهم”، “ومن الأشياء التي نتعلمها أن الكثير من المهندسين قد ارتكبوا أخطاء”.
يتمثل أحد الجوانب الرئيسية للمشكلة في أن البشر غالبًا لا يعرفون الأهداف التي يجب منحها لأنظمة الذكاء الإصطناعي لدينا، لأننا لا نعرف ما نريده حقًا.
قالت دورسا سادي، عالمة الذكاء الاصطناعي بجامعة ستانفورد والمتخصصة في التفاعل بين الإنسان والروبوت: “إذا سألت أي شخص في الشارع” ماذا تريد أن تفعل سيارتك ذاتية القيادة؟ سيقولون تجنب الاصطدام”.
وتضيف: “لكنك تدرك أن هذا ليس كل شيء هناك مجموعة من التفضيلات التي يمتلكها الأشخاص”، السيارات ذاتية القيادة فائقة الأمان تسير ببطء شديد وتفرمل كثيرًا لدرجة تجعل الركاب مرضى.
عندما يحاول المبرمجون سرد جميع الأهداف والتفضيلات التي يجب على السيارة الروبوتية التوفيق بينها في وقت واحد، فإن القائمة تنتهي حتماً غير مكتملة.
إقرأ أيضا:كيف تستفيد بيتكوين من انسحاب جاك دورسي من تويتر؟لتجنب هذه المزالق وربما حل مشكلة محاذاة الذكاء الإصطناعي، بدأ الباحثون في تطوير طريقة جديدة تمامًا لبرمجة الآلات المفيدة.
يرتبط هذا النهج ارتباطًا وثيقًا بأفكار وأبحاث ستيوارت راسل، عالم الكمبيوتر المزخرف في بيركلي، قام راسل البالغ من العمر 57 عامًا، بعمل رائد في مجال العقلانية واتخاذ القرار والتعلم الآلي في الثمانينيات والتسعينيات من القرن الماضي وهو المؤلف الرئيسي لكتاب الذكاء الاصطناعي المستخدم على نطاق واسع: نهج حديث.
في السنوات الخمس الماضية، أصبح صوتًا مؤثرًا في مشكلة المحاذاة وشخصية منتشرة في كل مكان، شخص بريطاني حسن الحديث ومتحفظ يرتدي بدلة سوداء في الاجتماعات واللجان الدولية يتحدث حول المخاطر والحوكمة طويلة الأجل للذكاء الإصطناعي.
كما يرى راسل، فإن الذكاء الاصطناعي الموجه نحو الهدف اليوم محدود في نهاية المطاف، على الرغم من كل نجاحه في إنجاز مهام محددة.
يجادل راسل بأن مطالبة الآلة بتحسين “وظيفة المكافأة” وصف دقيق لمجموعة من الأهداف سيؤدي حتمًا إلى وجود ذكاء اصطناعي غير متوازن، لأنه من المستحيل تضمين جميع الأهداف والأهداف الفرعية والاستثناءات والتحذيرات في وظيفة المكافأة ووزنها بشكل صحيح، أو حتى تعرف ما هي العناصر الصحيحة.
إن إعطاء أهداف للروبوتات “المستقلة” التي تعمل بحرية للتجوال سيكون محفوفًا بالمخاطر بشكل متزايد لأنها تصبح أكثر ذكاءً، ولأن الروبوتات ستكون بلا رحمة في السعي وراء وظيفة المكافأة الخاصة بها وستحاول منعنا من إيقاف تشغيلها.
إقرأ أيضا:رابط نتائج القرعة الأمريكية 2023بدلاً من أن تسعى الآلات إلى تحقيق أهداف خاصة بها كما يذهب التفكير الجديد، يجب أن تسعى إلى إرضاء التفضيلات البشرية، ويجب أن يكون هدفهم الوحيد هو معرفة المزيد حول ماهية تفضيلاتنا.
على مدى السنوات القليلة الماضية، عمل راسل وفريقه في بيركلي، جنبًا إلى جنب مع المجموعات ذات التفكير المماثل في ستانفورد وجامعة تكساس وأماكن أخرى على تطوير طرق مبتكرة لإدراك أنظمة الذكاء الاصطناعي لتفضيلاتنا، دون الحاجة إلى تحديد هذه التفضيلات.
تقوم هذه المعامل بتعليم الروبوتات كيفية تعلم تفضيلات البشر الذين لم يعبروا عنها قط وربما لم يكونوا متأكدين حتى مما يريدون.
يمكن للروبوتات معرفة رغباتنا من خلال مشاهدة العروض التوضيحية غير الكاملة ويمكنها حتى ابتكار سلوكيات جديدة تساعد في حل الغموض البشري.
تشير هذه النتائج إلى أن الذكاء الاصطناعي قد يكون جيدًا بشكل مدهش في استنتاج عقلياتنا وتفضيلاتنا، حتى كما نتعلمها بسرعة.
أدرك الرجل أن الروبوتات يجب ألا تحاول تحقيق أهداف مثل زيادة وقت المشاهدة، يجب أن يحاولوا ببساطة تحسين حياتنا.
أسهل طريقة للبيع على تيك توك يوتيوب واتساب بدون متجر إلكتروني
5 أخطاء شائعة نرتكبها عند التسويق على يوتيوب
زيادة مشاهدات اليوتيوب من خلال سناب شات
أدوات يوتيوب لمكافحة مقاطع التضليل والأخبار المزيفة
المراهقين يفضلون تيك توك ويوتيوب على انستقرام