يمكنه كتابة التغريدات والأغاني … تعرف على خوارزمية “GBT-3”

تتمتع خوارزمية الذكاء الاصطناعي المتقدمة لإنتاج نصوص “GPT-3” بالقدرة على كتابة التغريدات والأغاني وتلخيص رسائل البريد الإلكتروني والترجمة من وإلى لغات متعددة وحتى كتابة برامج الكمبيوتر الخاصة بهم.

وفي تقرير نشرته صحيفة نيويورك تايمز (نيويورك تايمزقال المؤلف الأمريكي كيد ميتز إن شركة OpenAI للذكاء الاصطناعي في سان فرانسيسكو قد كشفت عن تطوير خوارزمية “GBT-3” جديدة قادرة على إنشاء نصوص.

أمضت الشركة شهورًا في تطوير النظام الجديد من خلال تعليمه خصوصيات وعموميات اللغة الطبيعية من خلال تحليل آلاف الكتب الرقمية ، وجميع محتويات ويكيبيديا ، وما يقرب من تريليون كلمة منشورة على المدونات ومنصات التواصل الاجتماعي والإنترنت بشكل عام.

كان ماكاي ريجلي ، وهو مبرمج كمبيوتر يبلغ من العمر 23 عامًا من مدينة سولت ليك ، أحد المبرمجين القلائل المدعوين لمعالجة هذا النظام القادر على الاستفادة من معرفته بالنصوص الرقمية لإنشاء نصوص جديدة بنفسه. تساءل ريجلي عما إذا كان بإمكان هذا النظام محاكاة الشخصيات العامة ، والكتابة بأسلوبها الخاص ، وربما حتى التحدث مثلهم.

اجتازت خوارزمية GPT-3 في الأسابيع التي تلت إطلاقها عشرات الاختبارات المفاجئة ، من كتابة التغريدات والأغاني ، وتلخيص رسائل البريد الإلكتروني ، والإجابة على أسئلة الثقافة العامة ، والترجمة إلى عدة لغات ، وحتى كتابة برامج الكمبيوتر الخاصة بهم. .

يستغرب الخبراء من هذه المهارات ، وقد رأى العديد من الباحثين في مجال الذكاء الاصطناعي هذه خطوة غير متوقعة في مجال الآلات التي يمكنها فهم تقلبات اللغة البشرية ، وربما حتى التعامل مع المهارات البشرية الأخرى.

وأشار المؤلف إلى أن خوارزمية “GBT-3” لا تخلو من العيوب ، لأنها غالبًا ما تخلق لغة متحيزة وسامة. عندما طلب من هذه الأداة إنشاء 10 فقرات بأسلوب عالم النفس سكوت باري كوفمان ، كانت الخمسة الأولى مقنعة ، لكن الخمس المتبقية لم تكن كذلك. عندما تحدث إلى نظيره في منظمة العفو الدولية ، لم يكن كوفمان معجبًا كما كان في البداية.

READ  وكالة أنباء الإمارات - البيئة والصحة والسلامة تعرض مبادرات رائدة مدعومة بالذكاء الاصطناعي في معرض الصحة العربي 2022

ولكن حتى مع هذه الأخطاء ، بدت المحادثة حقيقية ، مما يعكس ما يمكن للنظام القيام به بمفرده دون تغييره.

هذا النظام هو تتويج لسنوات من العمل الدؤوب في مختبرات الذكاء الاصطناعي الرائدة في العالم ، بما في ذلك مختبر مؤسسة OpenAI الذي تبلغ تكلفته مليار دولار – بدعم من Microsoft ومختبرات Google و Facebook. .

تم الإبلاغ عن أن لدى Google نظامًا مشابهًا يساعد في الرد على الاستفسارات في محرك بحث الشركة.

وأوضح المؤلف أن هذه الأنظمة – التي تسمى قوالب اللغة العالمية – يمكن أن تساعد في تشغيل مجموعة متنوعة من الأدوات ، مثل الخدمات التي تلخص تلقائيًا المقالات الإخبارية و “روبوتات الدردشة” المصممة للدردشة عبر الإنترنت. حتى الآن كان تأثير هذه الأنظمة على تكنولوجيا الواقع ضئيلاً.

لكن خوارزمية GPT-3 التي تم تعلمها من نظام نصي أكبر بكثير مقارنة بالأنظمة السابقة يمكن أن تفتح مجموعة واسعة من الاحتمالات الجديدة ، مثل البرامج التي يمكنها تسريع تطوير تطبيقات الهواتف الذكية الحديثة ، أو روبوتات الدردشة التي يمكنها التواصل. بطريقة أكثر إنسانية مقارنة بالتقنيات السابقة.

بينما يستكشف مصممو البرمجيات والمطورون والنقاد والفنانون هذا النظام ، تثير كل تجربة جديدة نقاشًا ساخنًا حول الإمكانات التي قد تحملها هذه التكنولوجيا في النهاية. بينما يجادل البعض بأن هذا النظام قد يمهد الطريق لظهور آلات ذكية حقًا ، يجادل آخرون بأن هذه التجارب مضللة أيضًا.

تخطط شركة OpenAI لتحويل GBT-3 إلى منتج تجاري مشترك (Shutterstock)

هل هو آمن للاستخدام؟

تخطط شركة OpenAI لتحويل نظام GBT-3 إلى منتج تجاري مشترك. ووصف جيروم بيسنتي ، نائب رئيس الذكاء الاصطناعي في فيسبوك ، النظام بأنه “غير آمن” وأشار إلى اللغة العنصرية والسامة التي يستخدمها النظام عندما طُلب منه مناقشة قضايا تتعلق بالنساء والسود واليهود.

READ  يستجيب Valve لـ # SaveTF2 ، ويقول إنه يعمل على التحسينات

ربما يكون هذا أحد الأسباب التي جعلت OpenAI تقدم هذا النظام برقم اختبار فقط. صمم مختبر الشركة مرشحات تحذر من احتمال ظهور لغة سامة ، لكنها غير فعالة في حل مشكلة لا يعرف أحد كيفية حلها.

في النهاية ، تقع المسؤولية على عاتق الشركة ، وفقًا لما ذكرته ليزا أوسوليفان ، نائبة رئيس شركة آرثر ، التي تساعد الشركات على إدارة سلوك تقنيات الذكاء الاصطناعي.

يخشى خبراء آخرون أن تساعد نماذج إنتاج مثل هذه النصوص في نشر معلومات مضللة عبر الإنترنت ، مما يضيف إلى الحملات التي ربما تكون قد ساعدت في التأثير على الانتخابات الرئاسية لعام 2016.

يتنبأ هذا النظام بمستقبل قد لا نكون فيه متأكدين مما إذا كان ما نقرأه حقيقيًا أم مزيفًا ، وهذا ينطبق على التغريدات والمحادثات عبر الإنترنت والمحتوى الرقمي الآخر.

صمم جوزيف وايزنباوم ، الباحث في معهد ماساتشوستس للتكنولوجيا ، معالجًا نفسيًا آليًا اسمه “أليسا” (Getty Images) في منتصف الستينيات.

العيوب التي لا تزول

في منتصف الستينيات ، صمم جوزيف وايزنباوم ، الباحث في معهد ماساتشوستس للتكنولوجيا ، معالجًا نفسيًا آليًا اسمه “أليسا”. وعلى عكس خوارزمية GBT-3 ، لم تتعلم أليسا من النصوص ، بل من بعض القواعد التي وضعها مصممها.

كانت تكرر إلى حد كبير كل ما قيل لها في شكل سؤال ، ولكن ما فاجأ الدكتور وايزنباوم هو أن العديد من الناس تعاملوا مع الروبوت كما لو كان إنسانًا وتحدثوا عن مشاكلهم دون تحفظ.

لاحظ المؤلف أن هذا ليس سوى جزء مما يحدث في خوارزمية “GBT-3” ؛ نظرًا لقدرته على إنتاج تغريدات مقنعة ومنشورات مدونات وأيقونات كمبيوتر ، فإننا نرى جانبًا من جوانب الإنسانية في هذا النظام الرقمي ونولي اهتمامًا أقل لنواقصه.

لا شك أن “GBT-3” هي أداة جديدة للباحثين ورجال الأعمال في عالم الذكاء الاصطناعي ، وطريقة لبناء جميع أنواع التقنيات والمنتجات الجديدة ، لكن فعالية الخدمات التي يقدمونها في النهاية تظل غير واضحة.

READ  ماذا علي أن أفعل إذا انقطع الاتصال بالإنترنت؟

نظرًا لأن خوارزمية GPT-3 عادةً ما تنتج النص الصحيح فقط ، فهل يمكن أن ترضي المحترفين؟ ومن غير الواضح أيضًا ما إذا كانت هذه التكنولوجيا ستمهد الطريق لتصميم أجهزة دردشة حقيقية وأنظمة ذكية حقًا.

author

Akeem Ala

"Social media addict. Zombie fanatic. Travel fanatic. Music geek. Bacon expert."

Similar Posts

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *