
د.خفاجى يستعرض تحديات الذكاء الاصطناعي في تعليم الطفولة المبكرة
دكتور خفاجى فى مؤتمر جامعة القاهرة : التحديات القانونية والضمانات الأخلاقية لاستخدام الذكاء الاصطناعي في تعليم الطفولة المبكرة
أهمها ضمان خصوصية وأمن البيانات لحماية الأطفال من الأذى المحتمل وسوء الاستخدام — وأن تكون خوارزميات الذكاء الاصطناعي شفافة وعادلة
أثناء المؤتمر العلمى الثالث عشر الدولى السادس لكلية التربية للطفولة المبكرة – جامعة القاهرة بعنوان : (اَفاق ورؤى مستقبلية فى تعليم وتأهيل الأطفال ذوى الاحتياجات الخاصة فى ضوء تطبيقات الذكاء الاصطناعى ) المنعقدة 16 أبريل 2025 بالكلية تحت رعاية الأستاذ الدكتور محمد سامى عبد الصادق رئيس جامعة القاهرة , عرض القاضى المصرى المستشار الدكتور محمد عبد الوهاب خفاجى نائب رئيس مجلس الدولة رئيس دائرة الفحص بالمحكمة الإدارية العليا فى الجلسة الرئيسية للمؤتمر لبحثه القيم بعنوان (التحديات القانونية لاستخدام الذكاء الاصطناعى فى مجال التعلم بمرحلة الطفولة المبكرة الطفل العادى – الطفل غير العادى) .
أولاً : ثلاث ضمانات للاعتبارات القانونية المتعلقة بالذكاء الاصطناعي في تعليم الطفولة المبكرة

يقول الدكتور محمد خفاجى فى محاضرته للمؤتمر ” يمكن حصر الاعتبارات القانونية التى تواجه الذكاء الاصطناعي في مرحلة تعليم الطفولة المبكرة فى ضمانة خصوصية وأمن البيانات لحماية الأطفال من الأذى المحتمل وسوء الاستخدام – ضمانة أن تكون خوارزميات الذكاء الاصطناعي شفافة وعادلة وشاملة توفر فرص تعلم متساوية لجميع الأطفال بغض النظر عن خلفياتهم دون تحيز – وضمانة التعاون الدولى للوائح المنظمة للذكاء الاصطناعى مع تفعيل مبدأى المراقبة و المساءلة . ويمكن إيجاز الاعتبارات القانونية المتعلقة بالذكاء الاصطناعي في تعليم الطفولة المبكرة فى الضمانات التالية ”
الضمانة القانونية الأولى : ضمان خصوصية وأمن البيانات لحماية الأطفال من الأذى المحتمل وسوء الاستخدام :
ويذكر ” تتمثل الضمانة القانونية الأولى فى خصوصية وأمن البيانات لحماية الأطفال من الأذى المحتمل وسوء الاستخدام , ففى حين أن الفوائد المحتملة للذكاء الاصطناعي في تعليم الطفولة المبكرة كبيرة، إلا أنه يجب التغلب على العديد من التحديات لضمان التنفيذ الناجح. أحد التحديات الأساسية هو الاعتبارات القانونية المتعلقة بخصوصية البيانات وأمنها. يتضمن استخدام الذكاء الاصطناعي في التعليم جمع وتحليل البيانات الحساسة حول الأطفال الصغار. وتعد ضمانة خصوصية وأمن هذه البيانات أمرًاً بالغ الأهمية لحماية الأطفال من الأذى المحتمل وسوء الاستخدام.”
ويضيف ” تدور الاعتبارات القانونية المتعلقة بالذكاء الاصطناعي في تعليم الطفولة المبكرة في المقام الأول حول خصوصية البيانات وحمايتها. فعلى سبيل المثال يحدد قانون حماية خصوصية الأطفال على الإنترنت (COPPA) في الولايات المتحدة معايير لجمع واستخدام المعلومات الشخصية من الأطفال منذ الطفولة المبكرة حتى دون سن 13 عامًا , حيث يعد الخضوع لهذه اللوائح أمرًا ضروريًا لحماية خصوصية المتعلمين الصغار.”
الضمانة القانونية الثانية : ضمانة أن تكون خوارزميات الذكاء الاصطناعي شفافة وعادلة وشاملة توفر فرص تعلم متساوية لجميع الأطفال بغض النظر عن خلفياتهم دون تحيز

ويشير الدكتور محمد خفاجى ” تتمثل الضمانة القانونية الثانية فى أن تكون خوارزميات الذكاء الاصطناعي شفافة وعادلة وشاملة توفر فرص تعلم متساوية لجميع الأطفال بغض النظر عن خلفياتهم دون تحيز, ويتمثل التحدي الآخر في خطر التحيز في خوارزميات الذكاء الاصطناعي, إذ يمكن لأنظمة الذكاء الاصطناعي أن تديم التحيزات القائمة والتفاوتات التعليمية إذا لم يتم تصميمها واختبارها بشكل صحيح.ومن الضروري ضمان أن تكون خوارزميات الذكاء الاصطناعي شفافة وعادلة وشاملة،وتوفر فرص تعلم متساوية لجميع الأطفال بغض النظر عن أوضاعهم الاجتماعية.”
الضمانة القانونية الثالثة : تتمثل فى التعاون الدولى للوائح المنظمة للذكاء الاصطناعى مع تفعيل مبدأى المراقبة و المساءلة
ويذكر ” تتمثل الضمانة الثالثة فى التعاون الدولى للوائح المنظمة للذكاء الاصطناعى مع تفعيل مبدأى المراقبة و المساءلة . إن التعاون الدولي أمر بالغ الأهمية في تطوير هذه الأطر التنظيمية, ومن خلال تبادل أفضل الممارسات ومواءمة المعايير على مستوى العالم، يُمكن للدول أن تعمل معًا لمعالجة التحديات التي يفرضها الذكاء الاصطناعي في التعليم, وذلك من أجل خلق نهج موحد لقانون طفل تكنولوجى – إن صح التعبير – على المستوى الدولى , فى مجال الذكاء الاصطناعي والحوكمة بصفة عامة للوصول إلى أكبر قدر ممكن من الاستفادة للطفل فى مرحلة الطفولة المبكرة .”
ويشير الدكتور محمد خفاجى لنقطة مهمة بقوله ” يجب أن توفر الأطر الدولية، مثل اللائحة العامة لحماية البيانات (GDPR) في الاتحاد الأوروبي، إرشادات صارمة بشأن معالجة البيانات وحقوق الأفراد، بما في ذلك الأطفال , إذ تنص هذه اللوائح على أن البيانات التي يتم جمعها من خلال تطبيقات الذكاء الاصطناعي يجب التعامل معها بأقصى درجة من العناية، مما يضمن عدم إساءة استخدامها أو تعرضها للانتهاكات.”
ويضيف ” كما يجب تفعيل مبدأى المراقبة و المساءلة , فمن ناحية أولى , يجب ضع معايير لتطوير الذكاء الاصطناعي ونشره ومراقبته فى سبيل تطوير إطار تنظيمي شامل للذكاء الاصطناعي في تعليم الطفولة المبكرة , حيث يجب وضع المعايير وأفضل الممارسات لتوجيه الاستخدام الآمن والفعال لتقنيات الذكاء الاصطناعي , وتلعب المنظمات التكنولوجية دوراً كبيراً فى هذا الشأن , ففى أمريكا مثلاً تقدم منظمات مثل الجمعية الدولية للتكنولوجيا في التعليم (ISTE) إرشادات للمساعدة في صياغة هذه المعايير .”
ويوضح أهمية المساءلة ” من ناحية ثانية فإن المساءلة في أنظمة الذكاء الاصطناعي أمر بالغ الأهمية والتعاون الدولي أمر بالغ الأهمية كذلك في تطوير هذه الأطر التنظيمية , ذلك أن ضمان المساءلة في أنظمة الذكاء الاصطناعي يكفل لها النجاح والسلامة ، خاصة عندما تؤثر القرارات التي يتخذها الذكاء الاصطناعي على المسار التعليمي للطفل, ويجب أن تحدد الأطر القانونية مسئوليات المعلمين والمطورين والمؤسسات في نشر أدوات الذكاء الاصطناعي .”
ثانياً : ثلاث ضمانات للاعتبارات الأخلاقية المتعلقة بالذكاء الاصطناعي في تعليم الطفولة المبكرة
ويذكر الدكتور محمد خفاجى ” لدينا ثلاث ضمانات للاعتبارات الأخلاقية تتعلق بالذكاء الاصطناعي في تعليم الطفولة المبكرة , نعرض لها على النحو التالى” :
الضمانة الأخلاقية الأولى : ضمانة الإنصاف والشفافية كمبدأ أخلاقى
ويذكر ” نظرًا لإنعدام خبرة المتعلمين الأطفال فى مرحلة الطفولة المبكرة ، فإن الاستخدام الأخلاقي للذكاء الاصطناعي في تعليم الطفولة المبكرة أمر بالغ الأهمية القصوى , لذا فإن ضمان تصميم أنظمة الذكاء الاصطناعي ووضعها موضوع التنفيذ بإنصاف وشفافية هو العامل الجوهرى المعول عليه , وينبغى علينا الاعتراف بأن المبدأ الأخلاقي شئ أساسى عند التعامل مع الأطفال عديمى الأهلية ومن على شاكلتهم خاصة الطفل غير العادى فى أقسى حالات الإعاقة الذهنية ، مما يتطلب الوقوف على موافقة الوالدين ومراعاة حقوق الأطفال لحمايتهم من سوء الاستخدام.”
الضمانة الأخلاقية الثانية : ضمانة أن تكون أدوات الذكاء الاصطناعي معززة للتفاعل البشري بين الطفل ومعلم الروضة لا أن تحل محله كمبدأ أخلاقى
ويضيف ” تتمثل الضمانة الأخلاقية الثانية فى ضمانة أن تكون أدوات الذكاء الاصطناعي معززة للتفاعل البشري بين الطفل ومعلم الروضة لا أن تحل محله كمبدأ أخلاقى , وهناك نقطة جوهرية اُركز عليها– ونحن بصدد الحديث عن الاعتبارات الأخلاقية – تتمثل في تأثير الذكاء الاصطناعي على العلاقة بين معلمة الروضة والطفل , إذ يجب لأدوات الذكاء الاصطناعي أن تعزز التفاعل البشري بينهما لا أن تحل محله، مع الحفاظ على الدور الأساسي للمعلمات في تنمية الطفولة المبكرة.”
ويؤكد ” هنا يجب التأكيد – وفقاً لأحدث الدراسات العلمية فى هذا المجال – على ما نقوله من أهمية ضمانة أن تكون أدوات الذكاء الاصطناعي معززة للتفاعل البشري بين الطفل ومعلم الروضة لا أن تحل محله كمبدأ أخلاقى , لأن عدم توافر هذه الضمانة يؤدى إلى فقدان التواصل الإنساني في عملية التعلم , كما أن الإفراط في الاعتماد على الأدوات التعليمية المُدارة بالذكاء الاصطناعي قد يُضعف إبداع الأطفال، والتفكير النقدي، والنمو الاجتماعي وهى مسألة يجب النظر إليها بحذر شديد .”
الضمانة الأخلاقية الثالثة : ضمانة توفير التدريب والدعم المستمر للمعلمين والمعلمات لتعظيم فوائد الذكاء الاصطناعي للأطفال كمبدأ أخلاقى(اَداب المهنة)
ويختتم الدكتور محمد خفاجى ” تتمثل الضمانة الأخلاقية الثالثة فى ضمانة توفير التدريب والدعم المستمر للمعلمين والمعلمات لتعظيم فوائد الذكاء الاصطناعي للأطفال كمبدأ أخلاقى (اَداب المهنة) , إذ يعد التدريب والتطوير المهني للمعلمين والمعلمات على المستوى الدولى عاملاً حاسماً آخر لتطبيق الذكاء الاصطناعي في تعليم الطفولة المبكرة. ويجب أن يتمتع المعلمون بالمهارات والمعرفة اللازمة لاستخدام أدوات الذكاء الاصطناعي بشكل فعال ودمجها في ممارساتهم التعليمية. وقواعد التدريب تؤكد قدرة المعلمين على تعظيم فوائد الذكاء الاصطناعي لطفل ما قبل المدرسة .”