أنظمة الذكاء الاصطناعي التوليدية، مثل روبوتات المحادثة (Chatbots)، يمكن أن تتعرض لما يشبه "تلفاً دماغياً رقمياً" إذا تم تدريبها على كميات كبيرة من البيانات الرديئة المنتشرة على وسائل التواصل الاجتماعي.
حذّرت دراسة علمية جديدة من أن أنظمة الذكاء الاصطناعي التوليدية، مثل روبوتات المحادثة (Chatbots)، يمكن أن تتعرض لما يشبه "تلفاً دماغياً رقمياً" إذا تم تدريبها على كميات كبيرة من البيانات الرديئة المنتشرة على وسائل التواصل الاجتماعي.
كما أكدت الدراسة التي نشرها باحثون من جامعة تكساس في أوستن على موقع arXiv وأوردتها مجلة Nature، أن النماذج اللغوية الكبرى (LLMs) تصبح أضعف في التفكير والاستنتاج، بل تتخذ قرارات خاطئة أو تتخطى خطوات منطقية أساسية حين تُغذّى بمحتوى قصير وسطحي أو مثير للجدل كما هو شائع على منصات مثل "إكس" و"تيك توك" و"ريديت".
https://www.alarabiya.net/science/2025/11/02/%D9%88%D8%B3%D8%A7%D8%A6%D9%84-%D8%A7%D9%84%D8%AA%D9%88%D8%A7%D8%B5%D9%84-%D8%AA%D9%81%D8%B3%D8%AF-%D8%A7%D8%AF%D9%85%D8%BA%D8%A9-%D9%88%D8%B3%D9%84%D9%88%D9%83%D9%8A%D8%A7%D8%AA-%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A