أظهرت دراسة جديدة أجرتها جامعة تكساس في أوستن بالتعاون مع جامعة تكساس إيه آند إم وجامعة بيردو، أن نماذج اللغة الكبيرة التي يتم تدريبها على محتوى شائع منخفض الجودة من وسائل التواصل الاجتماعي تفقد جزءًا من قدراتها الإدراكية.
الذكاء الاصطناعي قد يعاني من تدهور عقلي
ووفقًا للدراسة، فإن اعتماد هذه النماذج على بيانات مليئة بالتفاعل ولكن فقيرة من حيث الجودة يؤدي إلى ما يشبه حالة “تعفّن الدماغ”، وهي ظاهرة شبّهها الباحثون بما قد يواجهه المستخدمون بعد قضاء فترات طويلة في تصفح منصات مثل X وتيك توك.
قال جونيوان هونغ، الأستاذ المساعد في الجامعة الوطنية في سنغافورة، والذي أجرى الدراسة خلال دراسته العليا في جامعة تكساس في أوستن؛”نحن نعيش في عصر تتسارع فيه وتيرة نمو المعلومات أكثر من قدرة الإنسان على التركيز، ومعظم هذا المحتوى يُصمم لجذب النقرات لا لنقل الحقيقة أو العمق.” متسائلًا “ماذا يحدث عندما يتم تدريب الذكاء الاصطناعي على نفس المحتوى؟”
قام هونغ وفريقه البحثي بتغذية نماذجي لغة كبيرين مفتوحي المصدر بأنواع مختلفة من النصوص خلال مرحلة ما قبل التدريب، لدراسة تأثير طبيعة المحتوى على أداء النماذج.
وركّز الباحثون على تحليل النتائج عند تدريب النماذج على مزيج من المنشورات “الجذابة” أو الأكثر انتشارًا على وسائل التواصل الاجتماعي، إلى جانب المحتوى الذي يتضمن عبارات مثيرة أو مبالغًا فيها مثل “واو” و*”انظر”* و*”اليوم فقط”*، بهدف فهم كيفية انعكاس هذا النمط من البيانات على قدراتها الإدراكية وجودة مخرجاتها.
بعد ذلك، استخدم الباحثون مجموعة من المعايير التحليلية المختلفة لقياس تأثير هذا النوع من المحتوى “الرخيص” المنتشر على وسائل التواصل الاجتماعي في أداء نموذجين مفتوحي المصدر هما: “لاما” من شركة ميتا و**”كوين”** من شركة علي بابا، بهدف تقييم مدى تأثر قدراتهما وفهمهما اللغوي بنوعية البيانات التي تم تدريبهما عليها.
أظهرت النتائج أن النماذج التي تم تدريبها على نصوص “رخيصة” أو مثيرة على وسائل التواصل الاجتماعي تعرضت لتدهور إدراكي واضح، شمل انخفاضًا في قدرات التفكير وتراجعًا في الذاكرة. كما لوحظ أنها أصبحت أقل التزامًا بالمعايير الأخلاقية وأكثر اضطرابًا نفسيًا وفقًا لقياسين اعتمدهما الباحثون لتقييم سلوك النماذج واستقرارها المعرفي.
تعكس هذه النتائج ما توصلت إليه دراسات سابقة على البشر، إذ أظهرت أن الاستهلاك المفرط للمحتوى منخفض الجودة عبر الإنترنت يضعف القدرات الإدراكية ويؤثر سلبًا على التركيز والذاكرة. وأدى اتساع انتشار هذه الظاهرة إلى أن يعتمد قاموس أكسفورد مصطلح “تدهور الدماغ” ككلمة العام لعام 2024.
أكد هونغ أن نتائج الدراسة تحمل دلالات مهمة لصناعة الذكاء الاصطناعي، إذ يُخطئ بعض المطورين حين يفترضون أن منشورات وسائل التواصل الاجتماعي تُعد مصدرًا مناسبًا لتدريب النماذج اللغوية، مضيفًا “قد يبدو استخدام المحتوى الفيروسي أو اللافت للانتباه وسيلة لتوسيع نطاق البيانات، لكنه في الواقع قد يُضعف قدرات النماذج على التفكير الأخلاقي والتركيز وفهم السياقات الطويلة”.
ويشير الباحثون إلى أن ما يثير القلق بشكل خاص هو أن الذكاء الاصطناعي نفسه أصبح يُنتج محتوى متزايدًا على وسائل التواصل الاجتماعي، وغالبًا ما يكون مصممًا لجذب التفاعل أكثر من نقل المعرفة أو القيمة. كما أظهرت الدراسة أن النماذج التي تتأثر بالمحتوى منخفض الجودة لا يمكن استعادتها بسهولة حتى بعد إعادة تدريبها.
وتُبرز النتائج أيضًا احتمال تعرض أنظمة الذكاء الاصطناعي المدمجة في منصات التواصل الاجتماعي، مثل Grok، لمشكلات في جودة المخرجات إذا تم تدريبها على منشورات المستخدمين دون ضوابط صارمة تضمن موثوقية وسلامة المحتوى.
قال هونغ: “مع تزايد تدفق المحتوى غير المفيد الذي ينتجه الذكاء الاصطناعي على منصات التواصل الاجتماعي، فإن ذلك يؤدي إلى تلويث البيانات التي ستعتمد عليها النماذج المستقبلية في التعلم”. وأضاف: “تُظهر نتائجنا أنه بمجرد ترسخ هذا النوع من تعفن الدماغ، يصبح من الصعب – إن لم يكن مستحيلاً – إصلاحه حتى من خلال إعادة التدريب على بيانات نظيفة لاحقًا”.
اقرأ أيضًا:
إيلون ماسك يُطلق موسوعة ذكاء اصطناعي تنافس ويكيبيديا














