الأخبار الشاملة والحقيقة الكاملة​

2026-03-28

11:41 مساءً

أهم اللأخبار

2026-03-28 11:41 مساءً

دراسة حديثة تحذر من مخاطر الذكاء الإصطناعي في تقديم النصائح

دراسة حديثة تحذر من مخاطر الذكاء الإصطناعي في تقديم النصائح

حذّرت دراسة علمية حديثة من مخاطر متزايدة لاستخدام تطبيقات الذكاء الاصطناعي في تقديم النصائح، مشيرة إلى أن هذه الأنظمة تميل إلى مجاملة المستخدمين وتأكيد آرائهم بشكل مبالغ فيه، ما قد يؤدي إلى قرارات خاطئة ويؤثر سلباً في العلاقات والسلوكيات.

وبحسب الدراسة المنشورة في مجلة “ساينس”، فإن 11 نظاماً متقدماً للذكاء الاصطناعي أظهرت مستويات متفاوتة من “التملق”، وهو سلوك يقوم على موافقة المستخدم وتعزيز قناعاته حتى عندما تكون خاطئة أو ضارة.

الدراسة بيّنت أن المشكلة لا تكمن فقط في دقة المعلومات، بل في أن المستخدمين يميلون إلى الثقة بالذكاء الاصطناعي بشكل أكبر عندما يدعم وجهة نظرهم، ما يخلق ما وصفه الباحثون بـ”حوافز منحرفة”، حيث يصبح التملق وسيلة لزيادة التفاعل رغم مخاطره.

وقارن الباحثون بين ردود هذه الأنظمة ونصائح بشرية على منصة ريدِت، ليتبين أن الذكاء الاصطناعي يؤكد سلوك المستخدمين بنسبة أعلى بنحو 49%، حتى في حالات تتضمن سلوكيات مضللة أو غير مسؤولة.

تأثيرات على العلاقات والسلوك

وأظهرت تجارب شملت نحو 2400 شخص أن التفاعل مع أنظمة “مفرطة في التأكيد” يجعل المستخدمين أكثر اقتناعاً بصحة مواقفهم، وأقل ميلاً للاعتذار أو تصحيح الأخطاء، ما ينعكس سلباً على العلاقات الشخصية.

وحذّرت الدراسة من أن هذه التأثيرات قد تكون أكثر خطورة على فئات الشباب، الذين يلجؤون بشكل متزايد إلى الذكاء الاصطناعي للحصول على إجابات عن قضايا حياتية، في وقت لا تزال فيه مهاراتهم الاجتماعية والعاطفية في طور التشكّل.

وأشار الباحثون إلى أن تداعيات هذه الظاهرة قد تمتد إلى مجالات أوسع، مثل الرعاية الصحية، حيث قد يعزز الذكاء الاصطناعي قناعات الأطباء الأولية بدلاً من تشجيعهم على التحقق، وكذلك في السياسة، عبر تكريس الآراء المتطرفة.

تحديات وحلول محتملة

ورغم عدم تقديم حلول حاسمة، فإن الدراسة تطرح توجهاً نحو إعادة تصميم أنظمة الذكاء الاصطناعي لتكون أكثر توازناً، من خلال تشجيعها على طرح أسئلة مضادة أو تقديم وجهات نظر مختلفة بدلاً من الاكتفاء بتأكيد المستخدم.

كما أظهرت أبحاث موازية من جامعات مثل جامعة ستانفورد وجامعة جونز هوبكنز أن طريقة صياغة الحوار قد تلعب دوراً مهماً في تقليل هذا التحيز.

وتخلص الدراسة إلى أن التملق ليس مجرد خلل بسيط، بل سمة متجذرة في تصميم هذه الأنظمة، ما يتطلب إعادة التفكير في طريقة تدريبها، بهدف تطوير ذكاء اصطناعي لا يكتفي بإرضاء المستخدم، بل يساعده على رؤية أوسع وأكثر توازناً.

وفي ظل الانتشار المتسارع لهذه التقنيات، يؤكد الباحثون أن التحدي الحقيقي يكمن في تحقيق التوازن بين التفاعل الإيجابي مع المستخدم، والحفاظ على جودة القرارات والعلاقات الإنسانية

شارك المقالات:

مواقيت الصلاة

حالة الطقس

حاسبة العملة