لقد أحدثت الذكاء الاصطناعي ثورة في مجال الإبداع الرقمي، بما في ذلك الطريقة التي يصمم بها الناس ويصورون ويتصورون أفكارهم. من بين العديد من الاتجاهات في فنون الذكاء الاصطناعي، اكتسب مصطلح “AI loli” شعبية. ومع ذلك، فقد جذب أيضًا اهتمامًا وجدلًا في المجتمعات عبر الإنترنت. بالنسبة للآباء، من الضروري جدًا معرفة ما يعنيه هذا المصطلح وكيف يرتبط بتعرض الأطفال لأدوات الفن الرقمي.
تستخدم عبارة “ai loli” غالبًا في المناقشات عبر الإنترنت حول شخصيات الأنمي أو الرسوم المتحركة الجذابة التي تم إنشاؤها باستخدام أدوات الرسم بالذكاء الاصطناعي. ومع ذلك، فإن معناها يعتمد بشكل كبير على السياق. عند استخدامها بشكل صحيح، تشير إلى شخصيات بأسلوب “تشبي” لطيف وصديق للأطفال والتي تُرى غالبًا في وسائل الإعلام للأطفال أو كتب الصور. عند استخدامها في مكان خاطئ، يمكن استخدام نفس الكلمة للإشارة إلى محتوى غير آمن أو محتوى غير مناسب. وهذا يجعل محو الأمية الرقمية والإرشاد الأبوي مهمين عندما يستخدم الأطفال منصات توليد الصور بالذكاء الاصطناعي.
ماذا يعني “AI loli” في الواقع؟
لفهم ما يعنيه “ai loli”، من المهم أولاً تعريف مصطلح “لولي”. نشأ المصطلح من الكلمة اليابانية “لوليتا”، واستخدم لأول مرة في الثقافة الشعبية للإشارة إلى الفتيات الصغيرات الجذابات والبرئيات. كما ركز على شخصيات بأسلوب الرسوم المتحركة مرسومة بشكل مصغر، شبه دمية. في الفن البصري، وخاصة في الأنمي والمانغا، تم استخدام “لولي” كاختصار للشخصيات التي تتميز بجاذبية مفرطة، وصغر السن، وتؤكد على الوجوه المستديرة، والعيون الكبيرة، والتعبيرات البسيطة والبرئية.
عندما اجتمعت مع ظهور أدوات فنون الذكاء الاصطناعي، بدأ مصطلح “ai loli” يصبح أكثر شعبية عبر الإنترنت. يشير إلى الرسوم التوضيحية التي تم إنشاؤها بالذكاء الاصطناعي لشخصيات صغيرة لطيفة بأسلوب “تشبي”. ضمن سياقات معينة، يتحدث هذا الاتجاه البصري عن شعبية جمالية “كawaii” (لطيف) بسبب سحرها. على سبيل المثال، تستخدم برامج الرسوم المتحركة للأطفال مثل “Hello Kitty” أو “Doraemon” مبادئ بصرية مشابهة لشخصيات صغيرة. كما تشمل الألوان الباستيلية والخطوط الناعمة التي تشير إلى اللطف والمرح.
ومع ذلك، من الضروري التأكيد على أن الاستخدام الصحيح لـ “ai loli” محدود تمامًا لأنماط الفن القانونية والصحية. أي محاولة لتأجيج أو جعل الشخصيات ذات المظاهر الطفولية ذات طابع جنسي تعتبر غير قانونية وغير أخلاقية. قوانين حماية الأطفال الدولية ومنصات المحتوى، مثل OpenAI وAdobe، لديها حدود صارمة على توليد أو مشاركة الصور التي تعتبر استغلالية أو ضارة.



وفقًا لتقرير سلامة الإنترنت في الاتحاد الأوروبي (2025)، تعتبر حماية الأطفال في مجالات الإبداع في العالم الرقمي قضية ذات أولوية عالية، حيث يمكن بسهولة التلاعب بأدوات فنون الذكاء الاصطناعي لإنتاج نتائج غير مناسبة إذا تم إساءة استخدامها. لذلك، من المهم استخدام الكلمات الرئيسية الصحيحة وأن تكون واعيًا للسياق عندما يتعلق الأمر بضمان نهج آمن وتعليمي في التعامل مع الذكاء الاصطناعي.
لماذا يسبب “AI loli” جدلًا؟
الجدل المحيط بـ “ai loli” يعود إلى غموض كلمة “لولي” في الثقافة عبر الإنترنت. من ناحية، في مجتمعات تصميم الأنمي والألعاب، هو مصطلح فني بريء لوصف شخصيات لطيفة بأسلوب مميز. من ناحية أخرى، تم استغلال المصطلح من قبل دوائر معينة في الإنترنت البالغ أو غير القانوني. وبالتالي، هناك احتمال لسوء الفهم أو إساءة استخدام المصطلح.
قم بتمكين والدتك من خلال اتخاذ تدابير استباقية!
بالنسبة للآباء، فإن هذا المعنى المزدوج يمثل تحديًا. قد يرى الأطفال والمراهقون المهتمون بالأنمي أو الفن الرقمي مصطلح “ai loli” عبر الإنترنت دون فهم كامل لما ينطوي عليه. يمكنهم التعرض لمواد مزعجة أو غير مناسبة من خلال القيام بعمليات بحث تتعلق بالفضول أو من خلال التعرض لمجتمعات تناقش “فن لولي”. كما أن العديد من المنتديات الفنية أو مواقع المعجبين ذات النوايا الحسنة تواجه أيضًا مشاكل في إدارة هذه الحدود بشكل جيد. ويرجع ذلك أساسًا إلى أن الأنظمة الآلية لا تزال تواجه مشاكل في تحديد السياق بشكل صحيح.
مع تزايد إمكانية الوصول إلى أدوات توليد الصور بالذكاء الاصطناعي، أصبح من الأسهل بشكل كبير للناس إنشاء أعمال فنية مفصلة باستخدام بعض أوامر النصوص. أدوات مثل Midjourney وStable Diffusion وDALL-E هي بعض من العديد من الأمثلة على كيفية مساعدة التعلم الآلي في إعادة تصور الإبداع. ومع ذلك، فإنها يمكن أن تنشر محتوى محظور إذا لم يتم تصفيتها.
يحذر خبراء السلامة عبر الإنترنت من مؤسسة مراقبة الإنترنت (IWF، 2023) من أن الكلمات الرئيسية الغامضة المتعلقة بـ “لولي” أو “مراهق” أو “طفل” غالبًا ما تجذب أنشطة غير قانونية و/أو مجتمعات خطرة. وفقًا لتقرير IWF، تم نسب إساءة استخدام هذه المصطلحات إلى توزيع مواد استغلالية عبر الإنترنت، حتى عندما كانت النية الفنية الأصلية بريئة. يبدو أن هذا يعيد التأكيد على الحاجة إلى أن يحتفظ الآباء بمحادثات مفتوحة مع أطفالهم حول الكلمات أو الأوصاف التي تعتبر مقبولة عند استكشاف أدوات الذكاء الاصطناعي.
أدوات الذكاء الاصطناعي الآمنة لتوليد شخصيات لطيفة وصديقة للأطفال
على الرغم من المخاطر المحتملة، يمكن أن تكون أدوات الرسوم التوضيحية بالذكاء الاصطناعي تعليمية وإبداعية عند استخدامها بشكل مسؤول. يمكن للعائلات والمعلمين استخدام أدوات الرسم بالذكاء الاصطناعي بأمان من خلال اختيار منصات موثوقة وكلمات رئيسية مناسبة. وهذا يسمح لهم بإنشاء فن لرواية القصص، والتعلم البصري، والمشاريع الإبداعية. بعض أدوات الذكاء الاصطناعي الموثوقة لتوليد أعمال فنية لطيفة وغير ضارة هي كما يلي.
- Canva AI: يساعد مساعد التصميم بالذكاء الاصطناعي في Canva المستخدمين على إنشاء شخصيات صديقة للأطفال وتصميمات ملونة. هذه مخصصة في الغالب لكتب القصص أو المواد التعليمية. نظام تصفية المحتوى المدمج يمنع المواضيع البالغة أو العنيفة وبالتالي فهو مناسب للمستخدمين الشباب تحت الإشراف.
- Adobe Firefly: مع مراعاة السلامة والاحترافية، تقوم Adobe Firefly بإنشاء شخصيات كرتونية. يتم ذلك بطريقة مميزة تتماشى مع جماليات الفصول الدراسية والموجهة للأطفال. تذكر Adobe أنها تدرب أدوات الذكاء الاصطناعي الخاصة بها على محتوى مرخص ومصدر قانونيًا، مما يضع معيارًا أخلاقيًا واضحًا لفن الذكاء الاصطناعي.
- Bing Image Creator: استنادًا إلى نموذج DALL-E الذي طورته OpenAI، يوفر Bing Image Creator للناس القدرة على إنشاء بعض الشخصيات الكرتونية الجذابة بأسلوب “تشبي” أو لطيف. يفرض مبادئ الذكاء الاصطناعي المسؤولة التي وضعتها Microsoft من خلال تصفية الأوامر الحساسة، بالإضافة إلى تحديد المحتوى البالغ.
توفر مثل هذه المنصات إمكانيات غنية للتصميم:
- رسوم توضيحية لكتب الأطفال.
- شخصيات كرتونية للمنصات التعليمية.
- وسائل مساعدة للتعلم في الفصل الدراسي الرقمي.
- تمائم علامات تجارية لطيفة.
- فن شخصيات لمشاريع المدرسة/تخطيط القصص.
كيف يمكن توجيه الأطفال لاستخدام أدوات الصور بالذكاء الاصطناعي بأمان؟
لا يمكن تقدير دور الإرشاد الأبوي بشكل زائد. تتبع أدوات الرسم بالذكاء الاصطناعي التعليمات الدقيقة للمستخدم، أي أن دقة وأمان الصور التي يتم إنشاؤها بواسطة الخوارزمية تعتمد على وضوح الكلمات الرئيسية المختارة. يجب على الآباء مساعدة الأطفال على فهم أن المصطلحات الغامضة أو الغامضة أو المشفرة للبالغين يمكن أن تنتج نتائج غير آمنة. يمكن أن تساعد التدابير البسيطة في جعل تجربة الفن الرقمي أكثر أمانًا:
علم الأطفال سياق اللغة. اشرح أن الكلمات لها معانٍ مختلفة في مجتمعات مختلفة. على سبيل المثال، قد يبدو أن “لولي” لا يوجد به أي خطأ في منتدى الأنمي، ولكنه يحمل معنى مختلف تمامًا في مكان آخر.
شجع على كتابة أوامر آمنة ومحددة. بدلاً من المدخلات الغامضة، مثل “فتاة لطيفة” أو “لولي”، اطلب منهم استخدام بعض المصطلحات الواضحة، مثل:
- “فتاة كرتونية لطيفة”
- “شخصية بأسلوب تشبي”
- “رسوم توضيحية أنمي صديقة للأطفال”
تخلق هذه العبارات الوصفية فنًا ذا طبيعة مبهجة وغير ضارة تتماشى مع وسائل الإعلام للأطفال.
راجع المحتوى الذي تم إنشاؤه معًا. قبل أن يضع الطفل الصور والعروض أمام الجمهور، تحقق من أن المرئيات مناسبة. هذه فرصة للحديث عن ما يجعل الأعمال الفنية آمنة أو غير آمنة.
حدد حدود الوقت والوصول. استخدم برنامج التحكم الأبوي لتنظيم الوقت الذي يقضيه الأطفال على مواقع فن الذكاء الاصطناعي والمواقع التي يمكنهم استخدامها.
قم بتمكين فلاتر المحتوى. تحتوي معظم مولدات فن الذكاء الاصطناعي على ميزات “الوضع الآمن” أو “المفلترة”. تأكد دائمًا من تفعيل هذه الميزات، لتجنب إنشاء صور للبالغين أو عنيفة عن طريق الخطأ.
المخاطر عبر الإنترنت التي يجب أن يكون الآباء على دراية بها
حتى مع ميزات الأمان في منصات الذكاء الاصطناعي الحديثة، هناك خطر متأصل في التعرض عبر الإنترنت. أحيانًا، يمكن أن تؤدي عمليات البحث الحسنة النية من الأطفال إلى بعض المواقع غير المناسبة، والمواقع السياسية، ومواقع مشاركة الفن التي لا تبقى دائمًا ضمن الخطوط الأخلاقية. فيما يلي بعض المخاطر الشائعة عبر الإنترنت التي يحتاج الآباء إلى مراقبتها:
- التعرض لعالم البالغين. تبيع بعض لوحات الرسائل والأسواق عبر الإنترنت صورًا غير قانونية. يتم إنشاؤها بواسطة الذكاء الاصطناعي كـ “فن”. قد ينتهي الأطفال الذين يستكشفون ثقافات الفن بالانضمام إلى هذه المساحات إذا لم يكونوا على دراية بالمخاطر.
- مولدات الصور غير الآمنة. على عكس الأدوات الموثوقة من Microsoft أو Adobe، قد لا تحتوي المواقع غير المنظمة على فلاتر محتوى. لهذا السبب، قد يكون من السهل ظهور المواد الضارة. يمكن أن تجمع هذه المواقع أيضًا معلومات عن المستخدم أو تعرض القاصرين لصور مزعجة.
- مشاركة وسائل التواصل الاجتماعي دون معرفة. يمكن للأطفال الذين ينشئون الفن جعل الصور عامة دون معرفة أن بعض طرق التمثيل البصري هي طرق لجذب انتباه غير مرغوب فيه من جماهير إشكالية.
- مخاطر التلاعب بالكلمات الرئيسية. يمكن أن تسيء محركات الذكاء الاصطناعي غير المستقرة أو ذات الإشراف الضعيف تفسير حتى الكلمات الرئيسية غير الضارة. يجب التحقق من كل صورة تنتجها الذكاء الاصطناعي مرتين للتأكد من أنها مناسبة قبل الاستخدام.
للتغلب على هذه التهديدات، يمكن للآباء استخدام تطبيقات الأمان الرقمي. يوفر FlashGet Kids، على سبيل المثال، أدوات مفيدة لحماية الأنشطة عبر الإنترنت للأطفال. يسمح للآباء بـ:
- حظر المواقع غير الآمنة أو غير المناسبة في مجال مجتمعات فن الذكاء الاصطناعي للبالغين.
- تحديد وقت الشاشة أو استخدام تطبيقات معينة لتجنب التعرض غير الضروري.
- مراقبة تاريخ التصفح وكلمات البحث والتأكد من عدم استخدام الأطفال لأي كلمات رئيسية غير آمنة أو غامضة.
- إدارة الوصول إلى أدوات الرسم بالذكاء الاصطناعي من خلال تعيين أذونات لاستكشاف إبداعي آمن.
يساعد دمج تطبيق التحكم الأبوي القوي الأسر على تحقيق التوازن بين التعلم التكنولوجي والسلامة عبر الإنترنت. بالإضافة إلى ذلك، يمكن للمدارس والمعلمين العمل مع الآباء لاستضافة ورش عمل حول الثقافة الرقمية. تساعد هذه الورش الأطفال على فهم أخلاقيات استخدام الذكاء الاصطناعي وكذلك المسؤولية الإبداعية.
الخاتمة
يُعبر مصطلح “AI loli” عن هذا التناقض بين جاذبية الشخصيات التي تم إنشاؤها بواسطة الذكاء الاصطناعي بأسلوب كيوت وصديق للأطفال، والمشكلات المعقدة المرتبطة باستخدامه عبر الإنترنت. من المهم فهم هذا المصطلح بشكل صحيح للآباء الذين يرغبون في تأمين أطفالهم في مجال الفن الرقمي. الاستخدام الصحيح لـ “AI loli” يقتصر على تصميمات الشخصيات البريئة واللطيفة. هذه مناسبة لوسائل الإعلام للأطفال، وأي تطبيقات جنسية أو ناضجة لهذا المصطلح غير قانونية وضارة.
يحتاج الآباء إلى تعليم أطفالهم استخدام كلمات رئيسية آمنة لإنشاء أعمال فنية بالذكاء الاصطناعي ومراقبة أنشطتهم باستخدام أدوات التحكم الأبوي. تساعد التطبيقات، مثل FlashGet Kids، في تقييد المواد غير المناسبة و التحكم في وقت الشاشة. مع الإشراف المستنير والتواصل، يمكن للآباء تعزيز الإبداع الآمن وضمان أن يكون للذكاء الاصطناعي تأثير إيجابي في تجارب أطفالهم الرقمية. يدعم هذا النهج المتوازن نمو خيال الأطفال ولكنه يحميهم من المخاطر المرتبطة بالمصطلحات الغامضة مثل ai loli في السياقات عبر الإنترنت.

