لماذا يجب أن يخاف الذكاء الاصطناعي منا

0 minutes, 5 seconds Read

الذكاء الاصطناعي يلحق بذكائنا ببطء. يمكن لخوارزميات الذكاء الاصطناعي الآن أن تهزمنا باستمرار شطرنجو لعبة البوكر و ألعاب فيديو متعددة اللاعبين، يولد صورًا لوجوه بشرية لا يمكن تمييزها عن الوجوه الحقيقيةو كتابة مقالات صحفية (ليس هذا!) و حتى قصص الحب، وقيادة السيارات بشكل أفضل من معظم المراهقين.

لكن الذكاء الاصطناعي ليس مثاليًا بعد ، إذا كان Woebot يمثل أي مؤشر. Woebot ، كما كتبت كارين براون هذا الأسبوع في Science Times ، هو تطبيق هاتف ذكي يعمل بالذكاء الاصطناعي ويهدف إلى تقديم مشورة منخفضة التكلفة، باستخدام الحوار لتوجيه المستخدمين من خلال تقنيات العلاج السلوكي المعرفي الأساسية. لكن العديد من علماء النفس يشككون في أن خوارزمية الذكاء الاصطناعي يمكنها التعبير عن نوع التعاطف المطلوب لإنجاح العلاج بين الأشخاص.

“هذه التطبيقات تغير حقًا المكون الأساسي الذي – تظهر الكثير من الأدلة – هو ما يساعد في العلاج ، وهي العلاقة العلاجية” ، هكذا قالت ليندا مايكلز ، وهي معالجة في شيكاغو وتشغل منصب الرئيس المشارك لشبكة العلاج النفسي ، وهي مجموعة محترفة . ، قال للتايمز.

التعاطف ، بالطبع ، هو طريق ذو اتجاهين ، ونحن البشر لا نتباهى بالروبوتات أكثر مما تقدمه لنا الروبوتات. أظهرت العديد من الدراسات أنه عندما يوضع الأشخاص في موقف يمكنهم فيه التعاون مع ذكاء اصطناعي صالح ، فإن احتمالية قيامهم بذلك أقل مما لو كان الروبوت شخصًا حقيقيًا.

أخبرني أوفيلي ديروي ، الفيلسوف بجامعة لودفيج ماكسيميليان في ميونيخ: “يبدو أن شيئًا ما ينقصه عندما يتعلق الأمر بالمعاملة بالمثل”. “في الأساس ، نتعامل مع شخص غريب تمامًا أفضل من الذكاء الاصطناعي”

في دراسة حديثةسعى الدكتور ديروي وزملاؤه من علماء الأعصاب إلى فهم السبب. ربط الباحثون الأشخاص البشريين بشركاء غير مرئيين ، وأحيانًا بشر وأحيانًا الذكاء الاصطناعي ؛ لعب كل زوج بعد ذلك سلسلة من الألعاب الاقتصادية الكلاسيكية – Trust و Prisoner’s Dilemma و Chicken و Stag Hunt ، بالإضافة إلى لعبة أنشأوها تسمى المعاملة بالمثل – مصممة لتقييم التعاون ومكافأته.

READ  اكتشف العلماء ثلاث سلالات جديدة من البكتيريا على متن محطة الفضاء الدولية

يُفترض عمومًا أن افتقارنا إلى المعاملة بالمثل مع الذكاء الاصطناعي يعكس انعدام الثقة. إنه عقلاني وقاس ، بعد كل شيء ، منصف بالتأكيد لنفسه ، ومن غير المرجح أن يتعاون ، فلماذا نفعل ذلك؟ توصل الدكتور ديروي وزملاؤه إلى نتيجة مختلفة وربما أقل إثارة للقلق. وجدت دراستهم أن الناس كانوا أقل عرضة للتعاون مع الروبوت حتى عندما كان الروبوت حريصًا على التعاون. ليس الأمر أننا لا نثق في الروبوت ، إنه ما نقوم به: فالروبوت مضمون ليكون محسنًا ، مصاصة كبيرة الحجم ، لذلك نحن نستغلها.

تم تأكيد هذه النتيجة من خلال المحادثات اللاحقة مع المشاركين في الدراسة. قال الدكتور ديروي: “لم يميلوا فقط إلى عدم تحقيق النوايا التعاونية للوكلاء المصطنعين ، ولكن عندما خانوا ثقة الروبوت بشكل أساسي ، لم يبلغوا عن الذنب ، بينما فعلوا ذلك مع البشر.” وأضافت: “يمكنك فقط تجاهل الروبوت ولا يوجد شعور بأنك قد خرقت التزامًا متبادلًا.”

قد يكون لهذا آثار في العالم الحقيقي. عندما نفكر في الذكاء الاصطناعي ، فإننا نميل إلى التفكير في Alexas و Siris في عالمنا المستقبلي ، والذين يمكننا تكوين نوع من العلاقة الحميمة الزائفة معهم. لكن معظم تفاعلاتنا ستكون لقاءات لمرة واحدة ، وغالبًا بدون كلمات. تخيل أنك تقود على الطريق السريع وتريد سيارة أن تندمج أمامك. إذا لاحظت أن السيارة ذاتية القيادة ، فستقل احتمالية السماح لها بالدخول. وإذا تجاهل الذكاء الاصطناعي سلوكك السيئ ، فقد يترتب على ذلك وقوع حادث.

قال الدكتور ديروي: “ما يحافظ على التعاون في المجتمع على أي نطاق هو وضع معايير معينة”. “الوظيفة الاجتماعية للشعور بالذنب هي على وجه التحديد إجبار الناس على اتباع الأعراف الاجتماعية التي تدفعهم إلى التنازل والتعاون مع الآخرين. ولم نتطور لتكون لدينا معايير اجتماعية أو أخلاقية للمخلوقات والروبوتات غير الواعية. “

READ  من المقرر إطلاق مهمة Inspiration4 الخاصة من SpaceX في 15 سبتمبر

هذا ، بالطبع ، نصف فرضية “Westworld”. (لدهشتي ، لم تسمع الدكتورة ديروي بسلسلة HBO.) لكن المشهد الخالي من الذنب قد يكون له عواقب ، قالت ، “نحن مخلوقات من العادة. إذن ما الذي يضمن أن السلوك الذي يتكرر ، وحيث تظهر قدرًا أقل من الأدب ، والتزامًا أخلاقيًا أقل ، وتعاونًا أقل ، لن يلوث أو يلوث بقية سلوكك عندما تتفاعل معه؟ إنسان آخر؟ “

هناك أيضًا عواقب مماثلة للذكاء الاصطناعي. قالت: “إذا عاملهم الناس معاملة سيئة ، فإنهم مبرمجون للتعلم مما يمرون به”. “إن الذكاء الاصطناعي الذي تم وضعه على الطريق ومبرمجته ليكون صالحًا يجب أن يبدأ في ألا يكون من هذا النوع بالنسبة للبشر ، وإلا فإنه سيظل عالقًا في حركة المرور إلى الأبد.” (هذا هو النصف الآخر من فرضية “Westworld” ، بشكل أساسي).

ها أنت ذا: اختبار تورينج الحقيقي هو غضب الطريق. عندما تبدأ سيارة ذاتية القيادة في التزمير بعنف من الخلف لأنك قطعتها ، ستعرف أن البشرية قد وصلت إلى قمة النجاح. بحلول ذلك الوقت ، نأمل أن يكون علاج الذكاء الاصطناعي متطورًا بما يكفي لمساعدة السيارات ذاتية القيادة في مشاكل إدارة الغضب.


author

Fajar Fahima

"هواة الإنترنت المتواضعين بشكل يثير الغضب. مثيري الشغب فخور. عاشق الويب. رجل أعمال. محامي الموسيقى الحائز على جوائز."

Similar Posts

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *