علماء يحذّرون من الوقوع في علاقات الحب عبر محادثات الذكاء الاصطناعي

“قدرة الذكاء الاصطناعي على التصرّف الآن مثل الإنسان والدخول في حوارات طويلة الأمد تفتح حقا صندوقا جديدا للشرور”.. باحث يُحذّر

أعلنت شركة تقنيات الذكاء الاصطناعي “أوبن أيه.آي” الأسبوع الماضي، عن تحسين وظيفة “الذاكرة” في تطبيق الذكاء الاصطناعي “شات جي.بي.تي”.

وهو ما يعني أنّ التطبيق سيصمّم ردوده على المستخدم بناء على استدعاء التفاعلات السابقة بينهما، ممّا يُرجّح أن يُعزّز الشعور بالألفة في العلاقة بين الإنسان والتطبيق.

وعن ذلك قال دانييل شانك، الباحث في جامعة ميسوري الأمريكية: “إنّ قدرة الذكاء الاصطناعي على التصرّف الآن مثل الإنسان والدخول في حوارات طويلة الأمد تفتح حقا صندوقا جديدا للشرور“، وفق ما نقلته عنه وكالة فرانس برس.

وفي ورقة بحثية نشرتها مجلة “اتجاهات العلوم المعرفية” العلمية، قال شانك وزملاؤه، إنّ هناك “قلقا حقيقيا” من أنّ “الحميمية المصطنعة” مع تطبيقات محادثة الذكاء الاصطناعي قد تشهد بعض “الاضطراب” في العلاقات الإنسانية.

وقال فريق البحث: “بعد أسابيع وشهور من المحادثات المكثفة بين المستخدم ومنصة محادثة الذكاء الاصطناعي، يمكن أن تصبح الأخيرة بالنسبة إلى المستخدم الرفيق الموثوق فيه الذي يعرف كل شيء عنه ويهتمّ بشؤونه“.

وحذّرت الدراسة العلمية من أنّ مخاطر الإفراط في قضاء الوقت من تطبيقات محادثة الذكاء الاصطناعي الثرثارة مع تزايد قدرات هذه المنصات، حيث يُمكن أن تدفع بعض المستخدمين إلى الانخراط فيما يشبه العشق أو العلاقة الرومانسية مع هذه المنصات.

ويقول الباحثون معدو الدراسة: “إذا بدأنا التفكير في تطبيقات الذكاء الاصطناعي بهذه الطريقة، فسنبدأ الاعتقاد بأنها تهتمّ بمصلحتنا، بينما في الواقع، قد تقوم بتلفيق الأمور أو تقديم المشورة لنا بطرق سيئة للغاية”.

وأضافوا أنّ التطبيقات “يُمكن أن تؤذي الناس من خلال تشجيع السلوكيات المنحرفة وغير الأخلاقية وغير القانونية“.

في الوقت نفسه، تكون برامج محادثة الذكاء الاصطناعي معرضة لما يسمى بـ”الهلوسة”، وهو المصطلح الذي يستخدمه المطّلعون على ميول هذه البرامج إلى إنتاج استجابات تبدو غير دقيقة أو غير متماسكة، تشكّل سببا آخر للقلق، لأن هذا يعني أنه “حتى المحادثات قصيرة الأمد مع الذكاء الاصطناعي يُمكن أن تكون مُضلّلة”.

وكالات

أضف تعليقا

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *