إنترنت

كيف طورت جوجل أداة MusicLM لإنتاج الموسيقى بالذكاء الإصطناعي؟

تم نشر MusicLM، وهو برنامج الذكاء الإصطناعي الرائد لتحويل النص إلى موسيقى من جوجل، في الأصل في أوائل عام 2023، وحتى في نسخته الأساسية، كان يمثل إنجازًا كبيرًا وفاجأ صناعة الموسيقى.

ومنذ ذلك الحين نجحت جوجل في تحسين الذكاء الإصطناعي الخاص بالموسيقى، وذلك بفضل المعلومات التي تقوم بجمعها عن المستخدمين.

كيف يتم تطوير أدوات الذكاء الإصطناعي؟

عند بناء نموذج الذكاء الاصطناعي من الصفر، فإنه يبدأ بدون معرفة ويقوم بالتخمين العشوائي بشكل أساسي، يقوم النموذج بعد ذلك باستخراج الأنماط المفيدة من خلال التدريب على البيانات ويبدأ في عرض سلوك ذكي بشكل متزايد مع تقدم التدريب.

أحد الجوانب السلبية لهذا النهج هو أن التدريب من الصفر يتطلب الكثير من البيانات، والضبط الدقيق هو فكرة استخدام نموذج موجود وتكييفه مع مهمة جديدة، أو تكييفه للتعامل مع نفس المهمة بشكل مختلف، ونظرًا لأن النموذج قد تعلم بالفعل أهم الأنماط فإن البيانات المطلوبة أقل بكثير.

على سبيل المثال، يمكن لأي شخص تدريب برنامج LLM قوي ومفتوح المصدر مثل Mistral7B من الصفر من قبل أي شخص، من حيث المبدأ، ومع ذلك، فإن كمية البيانات المطلوبة لإنتاج مخرجات مفيدة حتى ولو عن بعد هائلة.

وبدلاً من ذلك، تستخدم الشركات نموذج Mistral7B الحالي وتغذيه بكمية صغيرة من البيانات الخاصة لجعله يحل المهام الجديدة، سواء كان ذلك كتابة استعلامات SQL أو تصنيف رسائل البريد الإلكتروني.

إقرأ أيضا:هل كاش يو نصابة وهل سنسمع بإفلاسها قريبا؟

الفكرة الرئيسية هي أن الضبط الدقيق لا يغير البنية الأساسية للنموذج، إنه يكيف منطقه الداخلي قليلاً فقط لأداء أفضل في مهمة محددة، والآن دعونا نستخدم هذه المعرفة لفهم كيفية قيام جوجل بضبط MusicLM على بيانات المستخدم.

كيف جمعت جوجل بيانات المستخدم؟

بعد بضعة أشهر من اصدار MusicLM، تم إصدار عرض توضيحي عام كجزء من مطبخ اختبار الذكاء الاصطناعي من جوجل، وهناك يمكن للمستخدمين تجربة نموذج تحويل النص إلى موسيقى مجانًا.

ومع ذلك، ربما تعرف المثل القائل: إذا كان المنتج مجانيًا فأنت المنتج، ومن غير المستغرب أن جوجل ليست استثناءً لهذه القاعدة.

عند استخدام العرض التوضيحي العام لـ MusicLM، كنت تواجه أحيانًا مخرجين تم إنشاؤهما ويطلب منك تحديد المخرج الذي تفضله، ومن خلال هذه الطريقة، تمكنت جوجل من جمع 300000 من تفضيلات المستخدم في غضون شهرين.

وللأسف لم يتم إبلاغ المستخدمين صراحةً بأن تفضيلاتهم ستُستخدم في التعلم الآلي، على الرغم من أن هذا قد يبدو غير عادل، فمن المهم ملاحظة أن العديد من إجراءاتنا على الإنترنت يتم استخدامها للتدريب على تعلم الآلة، سواء كان ذلك سجل بحث جوجل الخاص بنا، أو الإعجابات على Instagram، أو قوائم التشغيل الخاصة بنا على سبوتيفاي، بالمقارنة مع هذه الحالات الشخصية والحساسة إلى حد ما.

كيف استفادت جوجل من بيانات المستخدم هذه؟

والسؤال التالي هو كيف تمكنت جوجل من استخدام هذه المجموعة الضخمة من تفضيلات المستخدم لضبط MusicLM.

إقرأ أيضا:تطبيق Uhive: الربح من الانترنت للبسطاء في الويب 3.0

يكمن السر في تقنية تسمى التعلم المعزز من ردود الفعل البشرية (RLHF) والتي كانت واحدة من الإنجازات الرئيسية لـ ChatGPT في عام 2022.

في RLHF، تُستخدم التفضيلات البشرية لتدريب نموذج الذكاء الاصطناعي الذي يتعلم تقليد قرارات التفضيلات البشرية، مما يؤدي إلى مقيم بشري مصطنع.

بمجرد تدريب ما يسمى بنموذج المكافأة، يمكنه أن يأخذ أي مسارين ويتنبأ بأي منهما على الأرجح سيفضله المقيِّمون البشريون.

من خلال إعداد نموذج المكافأة، يمكن ضبط MusicLM لتعظيم تفضيل المستخدم المتوقع لمخرجاته، وهذا يعني أن نموذج تحويل النص إلى موسيقى أنتج آلاف المقاطع الصوتية، وكل مسار يتلقى تقييمًا من نموذج المكافأة.

من خلال التكيف التكراري لأوزان النموذج، تعلمت MusicLM إنشاء موسيقى “يحبها” المُقيّم البشري الإصطناعي.

إلى أي مدى تطورت أداة MusicLM الجديدة عن النسخ السابقة؟

يبدو أن النموذج الجديد المضبوط يتفوق بشكل موثوق على MusicLM القديم، استمع إلى العينات المقدمة على الصفحة التجريبية.

بالطبع، قد يكون العرض التجريبي العام المختار خادعًا، حيث يتم تحفيز المؤلفين لعرض الأمثلة التي تجعل نموذجهم الجديد يبدو جيدًا قدر الإمكان، نأمل أن نتمكن قريبًا من اختبار MusicRL في ملعب عام.

ومع ذلك، توفر الورقة أيضًا تقييمًا كميًا للجودة الذاتية، ولهذا السبب، أجرت جوجل دراسة وطلبت من المستخدمين مقارنة مسارين تم إنشاؤهما لنفس المطالبة، مع إعطاء كل مسار درجة من 1 إلى 5.

إقرأ أيضا:افلاس فايس ميديا: من أموال روبرت مردوخ إلى جورج سوروس

وباستخدام هذا المقياس مع الاسم الرائع متوسط نقاط الرأي (MOS)، يمكننا مقارنة ليس فقط عدد مرات المقارنة المباشرة التي يفوز بها كل نموذج، ولكن أيضًا احسب متوسط نقاط التقييم (MOS).

يمثل MusicLM نموذج MusicLM الأصلي، تم ضبط MusicRL-R فقط من أجل جودة الصوت والالتزام الفوري، تم ضبط MusicRL-U فقط بناءً على ردود الفعل البشرية (نموذج المكافأة). أخيرًا، تم ضبط MusicRL-RU على جميع الأهداف الثلاثة، ليس من المستغرب أن يتفوق MusicRL-RU على جميع الطرز الأخرى في المقارنة المباشرة وكذلك في متوسط التقييمات.

وتشير الصحيفة أيضًا إلى أن الطراز MusicRL-RU، النموذج المضبوط بالكامل، تفوق على MusicLM في 87% من المقارنات المباشرة.

يمكن إظهار أهمية RLHF من خلال تحليل المقارنات المباشرة بين MusicRL-R وMusicRL-RU هنا، حقق الأخير معدل فوز قدره 66%، متفوقًا بشكل موثوق على منافسه.

رهان سام ألتمان بقيمة 7 تريليون دولار على الذكاء الإصطناعي

ربح المال من شخصيات الذكاء الإصطناعي الرقمية والإفتراضية

استخدامات أداة سورا Sora OpenAI لإنشاء مقاطع الفيديو بالذكاء الإصطناعي

كل ما نعرفه عن جيميناي جوجل و Gemini Advanced

دور موقع 4chan في صور تايلور سويفت الإباحية المزيفة

مقارنة بين محرك بحث جوجل والذكاء الإصطناعي ChatGPT

السابق
تطبيق التجسس الصيني الذي يحكم شعب الصين
التالي
فوائد خل التفاح العضوي الكثيرة للجسم والقيمة الغذائية لخل التفاح العضوي