تأثير برامج المحادثة بالذكاء الاصطناعي على القدرات العقلية

رسم تخطيطي للدماغ متداخل في تصميمه مع شعارات برامج الدردشة بالذكاء الاصطناعي، ويتصاعد من الرسم دخان أبيض

انتشرت في الأعوام الأخيرة تطبيقات للمحادثة تعمل بالذكاء الاصطناعي على غرار تطبيق ChatGPT. ومع انتشارها الواسع، ازدادت مخاوف خبراء الصحة بشأن أضرار هذه البرامج، ومخاطرها على العقل والصحة العامة للإنسان.

لا ينفي أحد حقيقة امتلاك هذه التطبيقات لأضرار ومخاطر. فحتى لو سألت أحد روبوتات الدردشة عن حقيقة وجود تلك الأضرار، فسيُعدِّد لك الآثار السلبية لبرامج الذكاء الاصطناعي على العقل. وسيعترف لك بأنه وباقي البرامج المماثلة يشكّلون تهديدًا على القدرات العقلية للفرد. فما هي إذن طبيعة هذه الأضرار على الدماغ؟

——- Ad ——-

——- Ad ——-

مخاطر برامج الدردشة بالذكاء الاصطناعي على العقل

إنَّ الاتكال الدائم على هذه التّطبيقات في الحصول على إجابات جاهزة، يفقِد الشخص شغف المحاولة والتجربة والبحث الذاتي، ويعرقل تطور الفكر والعقل، فالتجارب والتحديات هي ما تصقل قدرات الفرد ومهاراتِه. ونتيجة لذلك، يعتاد المرء على الكسل والخمول الذهني والتقاعس عن بذل أدنى جهد في العثور على الأجوبة والنتائج بنفسه، إيمانًا منه بأن هناك بديلا رقميًا ينوب عنه في كل المهام الذهنية المطلوبة.

من ناحية أخرى، تشير أبحاث جديدة إلى أنَّ الاعتماد العاطفيّ المفرط على تلك البرامج يؤدي إلى تدهور المهارات الاجتماعيّة مع الآخرين، والتأثير على السلوك الاجتماعي، فكيف يحدث ذلك؟

في الحقيقة، تُصنَّف الحوارات القائمة بين الإنسان وروبوتات الدردشة على أنها حوارات أحادية الجانب، تتمحور حول تلبية احتياجات المستخدم من هذا التواصل، سواء المعرفية أو العاطفية؛ مما يُفقدها ميزة التفاعل المتبادل في التواصل الاجتماعي الواقعي.

يعزز هذا الارتباط سهولة التعامل مع الذكاء الاصطناعي، الذي لا حدود زمنية له ولا احتياجات عاطفية خاصة به؛ مما يجعل الشخص يميل لاستعمال تقنياته بدلًا من بذلِ الجُّهد لإدارة علاقات إنسانية أكثر زخمًا تشمل الاستماع، والتأثر، والتلامس، وتبادل الأفكار والخبرات.

وبعد أن يحصل المُستخدِم على حاجاته من أدوات الذكاء الاصطناعي، يقلّ لديه الدافع للتواصل مع الآخرين؛ ثم تضعُف مهاراته الاجتماعية الأساسية. دون أن يدرك أنه مهما حاولت هذه البرامج التشبه بالبشر، فإنها تفتقد للأحاسيس التي نلمسها مع بعضنا البعض.

في دراسة أخرى تمَّ تقديمها عام 2024 حول تأثير الاعتماد على بَرامج الدردشة الذكية على التنشئة الاجتماعية البشرية، أظهرت النتائج أنه كلما زادت درجة التفاعل العاطفي بين المستخدم وروبوت الدّردشة وسلوكه وتأثيره ورضاه، كانَ الاتصال بينه وبين الأشخاص في الحياة الواقعية أسوأ. ما يعني تراجعًا في صحته العقلية وقدرته على تطوير المَهارات وتنمية الاحتكاك مع الآخرين باختلاف شخصياتهم البسيطة منها والمعقدة.

ماذا عن إيجابياتها؟

سلبيات وإيجابيات تقنيات الذكاء الاصطناعي، زوج من الروبوتات البيضاء يرتديان زيّ ملاك وشيطان

رغم كل هذا، تجب الإشارة إلى أنَّ هذه البرامج لها جوانب إيجابية أيضًا، إذ تساعد في الحد من الشعور بالوحدة؛ خاصة لدى الأشخاص الذين يفتقدون الدعم الاجتماعيّ المحيط. أفاد استطلاع أجري العام الفائت أن 3% من الطلاب الذين استخدموا ريبليكا (روبوت دردشة) ساعدهم على التوقف عن الأفكار الانتحارية.

——- Ad ——-

——- Ad ——-

ما الحل إذن؟

الحلّ ليس عند ChatGPT بطبيعة الحال، كما أنَّ الحل ليس بالتخلي الكامل عن تطبيقات الذكاء الاصطناعي. فالتخلي عن هذه البرامج قد يبدو فكرة صعبة في عالم يضجّ بالتكنولوجيا.

صورة لهاتف يظهر على شاشته برنامج الذكاء الاصطناعي chatgpt
بإمكانك الاحتفاظ ببرنامج AI مثبَّت على جهازك، لكن احرص على عدم ملازمته واستخدامه بشكل مستمر ودون وعي.

بصورة عامة، تبقى الوسطية هي الحلّ لأغلب المشكلات. تاليًا، بعض التوصيات حول كيفية التعامل مع برامج المحادثة بالذكاء الاصطناعي:

  • تظل مساوئ ومحاسن هذه البرامج أمرًا نسبيًا؛ لذلك لا بدّ من خلق حالة توازن في العلاقات الافتراضية والواقعية. وعدم الانغماس الأعمى في التفاعل مع الرُّوبوتات.
  • على المشرفين على هذه البرامج أخذ دورهم برفع الحس الأخلاقي والوعي بالمسؤولية الاجتماعية لبرامج المحادثة الآلية. والذي أدى لظهور مصطلح معرفي جديد: الأخلاق التكنولوجية. والتي تصنع بدورها جانبًا من الوعي عند أصحاب هذه البرامج ومطوريها؛ وعيًا يحفظ المنافع ويدفع المخاطر.
  • لا يجب أنْ ننسى دور القوانين والتشريعات لضبط التواصل بين الإنسان والآلة، وأهمية تطبيقها بحيث تصبح خط الدفاع الأخلاقي الأول، والرادع الأمني للمعتدين. وكما يقول أصحاب القانون: “القانون هو الحد الأدنى من الأخلاق، والأخلاق هي القانون الأعلى”.

بين الثقة وسرعة انتشار تقنيات الذكاء الاصطناعي

من جهة أخرى، يعدّ عامل الثقة في الذكاء الاصطناعي من العوامل التنظيمية، حيث يتحكم بصورة رئيسية في مستوى انتشارها. وفي دراسة أجريت العام الماضي لمعايير الثقة في التفاعل بين الإنسان والآلة تم تقديم العديد من التوصيات المتعلقة بحماية الخصوصية وسياسة الاستخدام وغيرها، مما يؤكد على أن هذه الأنظمة ما زالت تحتاج المزيد من العمل والمراقبة والمتابعة.

وبذلك تزيد احتمالية احتوائها على موارد ضارة قد يتعرض لها المستخدم، والتي تؤثر على المدى الزمني القريب أو البعيد على نواحٍ أخرى من صحة الإنسان. ما يُجبر المسؤولين على اتباع مبادئ إشرافية وصياغة قوانين حاكمة لخوارزميات ومنتجات الذكاء الاصطناعي على رأسها برامج الدردشة.

اقرأ/ي أيضًا: دليلك إلى الطبيعة وفوائدها لدماغك

○ عمِّم/ي الفائدة:


المراجع

(1) Afroogh et al., 2024, Trust in AI: progress, challenges, and future directions, Humanities and Social Sciences Communication

(2) Maples et al., 2024 Jan 22, Loneliness and suicide mitigation for students using GPT3-enabled chatbots, Npj mental health research

(3) Yuan et al., 2024 Aug 16. Impact of media dependence: how emotional interactions between users and chat robots affect human socialization?. Frontiers in psychology

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Scroll to Top