الذكاء الاصطناعي والخصوصية – سناء مصطفى

الذكاء الاصطناعي والخصوصية في الفضاء الرقمي: التحديات والحلول في العام 2025
مع التعرف على إجراءات حماية الخصوصية في النرويج

د. سناء مصطفى

مقدمة: الذكاء الاصطناعي والخصوصية الرقمية في عصر التحول التكنولوجي
في العام 2025، أصبح الذكاء الاصطناعي (AI) جزءًا أساسيًا من حياتنا اليومية، حيث يُستخدم في مجالات متعددة مثل الرعاية الصحية، والتعليم، والأعمال التجارية، والأمن. ومع هذا التوسع، تزداد المخاوف بشأن كيفية تأثير هذه التقنيات على الخصوصية الرقمية للأفراد.
تشير الدراسات إلى أن 57% من المستهلكين يعتبرون أن الذكاء الاصطناعي يشكل تهديدًا كبيرًا لخصوصيتهم، بينما يشعر 27% بالحياد تجاه هذه المسألة، و12% فقط لا يعتقدون أن الذكاء الاصطناعي يؤثر سلبًا على خصوصيتهم. eWeek
يشهد العالم طفرة غير مسبوقة في مجال الذكاء الاصطناعي، حيث أصبح يوظَّف في مختلف القطاعات الاقتصادية، الاجتماعية، الأمنية والصحية. هذا التطور السريع يطرح تحديات متعلقة بحماية البيانات الشخصية والخصوصية الرقمية للأفراد، خصوصًا في ظل تضخم حجم البيانات التي تعتمد عليها خوارزميات التعلم الآلي. وتكمن أهمية هذا البحث في إبراز العلاقة بين الذكاء الاصطناعي والخصوصية، وتحديد المخاطر والحلول الممكنة لضمان فضاء رقمي آمن.
إشكالية البحث
كيف يمكن تحقيق التوازن بين الاستفادة من تقنيات الذكاء الاصطناعي وتطويرها، وبين حماية خصوصية الأفراد في الفضاء الرقمي؟
أهداف البحث
1. توضيح دور البيانات في تطوير أنظمة الذكاء الاصطناعي.
2. تحليل المخاطر التي تهدد الخصوصية الرقمية نتيجة استخدام الذكاء الاصطناعي.
3. إبراز الأبعاد القانونية والأخلاقية المرتبطة بالموضوع.
4. اقتراح حلول وآليات لحماية الخصوصية في ظل التقدم التكنولوجي.
منهجية البحث
اعتمد البحث على المنهج الوصفي التحليلي من خلال مراجعة الأدبيات ذات الصلة بالذكاء الاصطناعي والخصوصية الرقمية، إضافةً إلى تحليل بعض التشريعات الدولية كنماذج تنظيمية.
الإطار النظري
أولًا: الذكاء الاصطناعي والبيانات
– يعتمد الذكاء الاصطناعي على البيانات كمصدر رئيسي للتعلم والتطور.
– تشمل البيانات المستخدمة: سلوكيات المستخدمين، مواقعهم الجغرافية، تفضيلاتهم الاستهلاكية، وحتى بياناتهم البيومترية.
– هذا الاعتماد المكثف يجعل من حماية البيانات تحديًا استراتيجيًا.

ثانيًا: المخاطر على الخصوصية
1. المراقبة الخفية: خوارزميات تتبع المستخدمين عبر الإنترنت دون موافقة صريحة.
2. إعادة تحديد الهوية: حتى البيانات المجهولة قد يُعاد ربطها بأفراد معينين.
3. التمييز والتحيز: خوارزميات اتخاذ القرار قد تنتج نتائج مجحفة في مجالات مثل التوظيف والتأمين.
4. الاختراقات الأمنية: أنظمة الذكاء الاصطناعي قد تصبح هدفًا لهجمات سيبرانية تستهدف البيانات الحساسة.
ثالثًا: الأبعاد القانونية والأخلاقية
– تبنّت اللائحة العامة لحماية البيانات الأوروبية (GDPR) سنة 2018 إطارًا صارمًا لتنظيم جمع البيانات واستخدامها.
– في المقابل، ما تزال تشريعات العديد من الدول العربية والنامية غير مواكبة للتحديات التقنية.
– أخلاقيًا، يثار سؤال ملكية البيانات وحق الأفراد في التحكم بمعلوماتهم الشخصية.

رابعًا: سبل الحماية والتوازن
– الحلول التقنية: التشفير، إخفاء الهوية، الحوسبة الآمنة، وتقنيات الخصوصية التفاضلية (Differential Privacy).
– الشفافية: إلزام الشركات والمؤسسات بالإفصاح عن سياسات جمع البيانات.
– المساءلة: إنشاء هيئات رقابية لمحاسبة الجهات المنتهِكة للخصوصية.
– التثقيف الرقمي: رفع وعي الأفراد بأهمية حماية بياناتهم وكيفية السيطرة عليها.

1 . جمع البيانات واستخدامها: الأساس الذي يعتمد عليه الذكاء الاصطناعي
تعتمد خوارزميات الذكاء الاصطناعي على كميات ضخمة من البيانات لتدريب النماذج وتحسين أدائها. تشمل هذه البيانات معلومات شخصية مثل:
• التفاعلات على وسائل التواصل الاجتماعي.
• سجلات البحث والتصفح.
• البيانات الصحية والمالية.
• الموقع الجغرافي والتفضيلات الشخصية.
ومع تزايد استخدام الذكاء الاصطناعي، تزداد المخاوف بشأن كيفية جمع هذه البيانات، ومن يملكها، وكيفية استخدامها ومشاركتها.
2 . المخاطر على الخصوصية: التحديات التي تواجه الأفراد والمجتمعات
تتمثل أبرز المخاطر المرتبطة بالذكاء الاصطناعي على الخصوصية في:
• المراقبة المستمرة: استخدام تقنيات مثل التعرف على الوجه والتتبع الجغرافي لمراقبة الأفراد دون علمهم.
• التمييز والتحيز: تدريب النماذج على بيانات غير متوازنة قد يؤدي إلى اتخاذ قرارات تمييزية ضد مجموعات معينة.
• القرارات غير الشفافة: صعوبة فهم كيفية اتخاذ النماذج للقرارات، مما يقلل من المساءلة والشفافية.
• الاختراقات الأمنية: تعرض البيانات الشخصية للاختراق قد يؤدي إلى تسريب معلومات حساسة.
3 . الحلول والسياسات الممكنة: تعزيز الخصوصية في عصر الذكاء الاصطناعي
لمواجهة هذه التحديات، تم تطوير مجموعة من الحلول والسياسات التي تهدف إلى تعزيز الخصوصية الرقمية:
أ. الأطر القانونية والتنظيمية
• اللائحة العامة لحماية البيانات (GDPR): تُعد من أبرز التشريعات التي تهدف إلى حماية خصوصية الأفراد في الاتحاد الأوروبي.
• قانون الذكاء الاصطناعي في الاتحاد الأوروبي (EU AI Act): يهدف إلى تنظيم استخدام الذكاء الاصطناعي وضمان توافقه مع معايير الخصوصية والأخلاقيات.
• القوانين المحلية: مثل قانون حماية الخصوصية في كاليفورنيا (CCPA) في الولايات المتحدة، الذي يمنح الأفراد حقوقًا إضافية بشأن بياناتهم الشخصية.
ب. التقنيات الحديثة لحماية الخصوصية
• التعلم الفيدرالي (Federated Learning): يتيح تدريب النماذج على البيانات المحلية دون الحاجة إلى نقلها إلى الخوادم المركزية، مما يقلل من مخاطر تسريب البيانات.
• التشفير المتقدم: استخدام تقنيات مثل التشفير المتماثل وغير المتماثل لحماية البيانات أثناء النقل والتخزين.
• الخصوصية التفاضلية (Differential Privacy): تقنية تهدف إلى إضافة ضوضاء إلى البيانات لضمان عدم الكشف عن معلومات فردية عند تحليل البيانات.
ج. التوعية والتعليم
رفع مستوى الوعي بين الأفراد حول حقوقهم الرقمية وكيفية حماية بياناتهم الشخصية من خلال:
• برامج تدريبية وورش عمل.
• حملات توعية عبر وسائل الإعلام.
• توفير أدوات وتقنيات تساعد الأفراد على التحكم في بياناتهم.

4. أمثلة واقعية: تطبيقات الذكاء الاصطناعي وتأثيرها على الخصوصية
• Clearview AI: تم تغريمها 30.5 مليون يورو من قبل الهيئة الهولندية لحماية البيانات لاستخدامها صورًا من وسائل التواصل الاجتماعي دون إذن لتدريب نماذج التعرف على الوجه. The Verge
• X تويتر سابقًا: تخضع للتحقيق من قبل لجنة حماية البيانات الإيرلندية لاستخدامها بيانات المستخدمين الأوروبيين لتدريب روبوت المحادثة “Grok” دون موافقة صريحة. AP News
• Meta: عدم إطلاق نموذج الذكاء الاصطناعي المتقدم “Llama” في الاتحاد الأوروبي بسبب المخاوف التنظيمية، بما في ذلك قوانين حماية البيانات الصارمة. The Guardian
نحو مستقبل رقمي يحترم الخصوصية
بينما يقدم الذكاء الاصطناعي فرصًا هائلة لتحسين حياتنا، من الضروري أن نتبنى سياسات وتقنيات تضمن حماية الخصوصية الرقمية. يجب أن يكون هناك توازن بين الابتكار وحماية حقوق الأفراد، من خلال:
• تطوير أطر قانونية مرنة تواكب التطورات التكنولوجية.
• استثمار في تقنيات تحمي البيانات وتضمن الشفافية.
• تعزيز الوعي والتعليم بين الأفراد والمؤسسات.
من خلال هذه الجهود المشتركة، يمكننا بناء بيئة رقمية تحترم الخصوصية وتعزز من ثقة الأفراد في استخدام تقنيات الذكاء الاصطناعي.
الذكاء الاصطناعي وحماية الخصوصية في النرويج: التوجهات والسياسات لسنة 2025
أ. المبادرات الحكومية والإستراتيجيات الوطنية
تسعى النرويج إلى أن تكون رائدة في مجال الذكاء الاصطناعي ذو مسؤولية قانونية محدودة، مع التركيز على احترام الخصوصية وحماية البيانات. في أذار/ مارس 2025، أعلنت الحكومة النرويجية عن خطط لتطبيق لائحة الاتحاد الأوروبي للذكاء الاصطناعي (EU AI Act) وتطوير قانون نرويجي متخصص في الذكاء الاصطناعي، مع هدف تنفيذ القانون الجديد بحلول صيف العام 2026 Wikipedia.
تُشرف هيئة الاتصالات النرويجية (Nkom) على تطبيق هذه السياسات، بما في ذلك تنظيم استخدام الذكاء الاصطناعي في القطاعات العامة والخاصة، وضمان الامتثال للمعايير الأوروبية Simonsen Vogt Wiig.
ب. التشريعات المحلية المتعلقة بالخصوصية وحماية البيانات
في كانون الثاني/يناير 2025، دخل قانون الاتصالات الإلكترونية الجديد (Ekomloven) حيز التنفيذ، والذي ينظم استخدام بيانات المرور في شبكات الاتصالات. ويُشترط بموجب هذا القانون أن يتم مسح أو إخفاء هوية بيانات المرور عندما لا تكون ضرورية للغرض المحدد، مع السماح بالاحتفاظ بها فقط إذا كانت تُستخدم لتقديم خدمة ذات قيمة مضافة وبموافقة صريحة من المستخدم dlapiperdataprotection.com.
ج. التعاون مع الاتحاد الأوروبي والامتثال للمعايير الدولية
تلتزم النرويج بتطبيق لائحة الاتحاد الأوروبي للذكاء الاصطناعي (EU AI Act)، والتي دخلت حيز التنفيذ في آب /أغسطس 2024. تُعتبر النرويج جزءًا من المنطقة الاقتصادية الأوروبية (EEA)، مما يعني أن التشريعات الأوروبية تُطبق عليها بشكل مباشر، بما في ذلك تلك المتعلقة بالذكاء الاصطناعي وحماية البيانات resourcehub.bakermckenzie.com.
د. التوجهات المستقبلية والتحديات
على الرغم من التقدم في تطوير السياسات والتشريعات، تشير الدراسات إلى أن تبني الذكاء الاصطناعي في النرويج يسير بوتيرة أبطأ من المتوقع، سواء في القطاع العام أو الخاص. تُظهر البيانات المستمدة من مسح “OKIOS” لسنة 2024 أن استخدام الذكاء الاصطناعي لا يزال في مراحله المبكرة، على الرغم من التوقعات العالية لاستخدامه في المستقبل arXiv.
فيما يلي القسم المخصص لتطبيقات الذكاء الاصطناعي في القطاع العام النرويجي لسنة 2025، مع التركيز على المبادرات الحكومية، التشريعات المحلية، والتوجهات المستقبلية في هذا المجال:
5 . تطبيقات الذكاء الاصطناعي في القطاع العام النرويجي لسنة 2025: الابتكار والامتثال
أ. المبادرات الحكومية والإستراتيجيات الوطنية
تسعى النرويج إلى أن تكون رائدة في مجال الذكاء الاصطناعي المسؤول، مع التركيز على احترام الخصوصية وحماية البيانات. في آذار/مارس 2025، أعلنت الحكومة النرويجية عن خطط لتطبيق لائحة الاتحاد الأوروبي للذكاء الاصطناعي (EU AI Act) وتطوير قانون نرويجي متخصص في الذكاء الاصطناعي، مع استهداف تنفيذ القانون الجديد بحلول صيف 2026. Wikipedia
تُشرف هيئة الاتصالات النرويجية (Nkom) على تطبيق هذه السياسات، بما في ذلك تنظيم استخدام الذكاء الاصطناعي في القطاعات العامة والخاصة، وضمان الامتثال للمعايير الأوروبية. digital.nemko.com
ب. التشريعات المحلية المتعلقة بالخصوصية وحماية البيانات
في يناير 2025، دخل قانون الاتصالات الإلكترونية الجديد (Ekomloven) حيز التنفيذ، والذي ينظم استخدام بيانات المرور في شبكات الاتصالات. يُشترط بموجب هذا القانون أن يتم مسح أو إخفاء هوية بيانات المرور عندما لا تكون ضرورية للغرض المحدد، مع السماح بالاحتفاظ بها فقط إذا كانت تُستخدم لتقديم خدمة ذات قيمة مضافة وبموافقة صريحة من المستخدم. dlapiperdataprotection.com
ج. التعاون مع الاتحاد الأوروبي والامتثال للمعايير الدولية
تلتزم النرويج بتطبيق لائحة الاتحاد الأوروبي للذكاء الاصطناعي (EU AI Act)، والتي دخلت حيز التنفيذ في أغسطس 2024. تُعتبر النرويج جزءًا من المنطقة الاقتصادية الأوروبية (EEA)، مما يعني أن التشريعات الأوروبية تُطبق عليها بشكل مباشر، بما في ذلك تلك المتعلقة بالذكاء الاصطناعي وحماية البيانات. resourcehub.bakermckenzie.com
د. التوجهات المستقبلية والتحديات
على الرغم من التقدم في تطوير السياسات والتشريعات، تشير الدراسات إلى أن تبني الذكاء الاصطناعي في النرويج يسير بوتيرة أبطأ من المتوقع، سواء في القطاع العام أو الخاص. تُظهر البيانات المستمدة من مسح “NOKIOS” لعام 2024 أن استخدام الذكاء الاصطناعي لا يزال في مراحله المبكرة، على الرغم من التوقعات العالية لاستخدامه في المستقبل. arXiv
في العام 2025، تشهد النرويج تقدمًا ملحوظًا في تطبيقات الذكاء الاصطناعي ضمن القطاع العام، مع التركيز على الابتكار المسؤول والبنية التحتية المستدامة. فيما يلي أبرز المشاريع والمبادرات الحكومية الرائدة في هذا المجال:
1 . مشروع “Stargate Norway” – مركز بيانات متقدم للذكاء الاصطناعي
أعلنت شركات Aker وNscale عن خطط لبناء مركز بيانات متطور في منطقة نارفيك شمال النرويج، بالشراكة مع OpenAI. سيُطلق على المشروع اسم “Stargate Norway”، وهو يهدف إلى إنشاء أول “مصنع ذكاء اصطناعي” في أوروبا، مزود بـ100,000 معالج رسومي من نوع NVIDIA، ويعمل بالكامل بالطاقة المتجددة. من المتوقع أن يُسهم هذا المشروع في تعزيز قدرة النرويج على تطوير نماذج الذكاء الاصطناعي المتقدمة، بما في ذلك تطبيقات الدفاع والأمن، في إطار التعاون مع حلف الناتو. E24+1
2 . KI-Norge مركز التنسيق الوطني للذكاء الاصطناعي
تأسس “KI-Norge” (الذكاء الاصطناعي النرويجي) تحت إشراف وكالة الرقمنة النرويجية (Digdir) ، ليكون منصة وطنية تهدف إلى تعزيز الاستخدام المسؤول للذكاء الاصطناعي. يشمل المشروع “AI Sandbox” الذي يتيح للمؤسسات الحكومية والشركات الصغيرة والمتوسطة اختبار حلول الذكاء الاصطناعي في بيئة آمنة ومراقبة، مما يعزز الابتكار مع الامتثال للمعايير القانونية والأخلاقية. digital.nemko.com
3 . دعم البحث والتطوير في الذكاء الاصطناعي
خصصت النرويج تمويلًا قدره 62 مليون كرونة نرويجية لدعم مشاريع الدكتوراه في القطاع العام والصناعي في مجال الذكاء الاصطناعي لعام 2025. تستهدف هذه المبادرة تعزيز التعاون بين الجامعات والمؤسسات الحكومية لتطوير حلول مبتكرة في مجالات مثل الرعاية الصحية، الإدارة العامة، والطاقة. Forskningsrådet

4. تطبيقات الذكاء الاصطناعي في القطاع الصحي
يُعتبر القطاع الصحي في النرويج من الرواد في تبني تقنيات الذكاء الاصطناعي، حيث يتم استخدامها في تحليل البيانات الطبية، تحسين تشخيص الأمراض، وتخصيص العلاجات. تتم هذه التطبيقات بالتعاون بين المستشفيات العامة، الجامعات، والشركات التكنولوجية، مما يسهم في تحسين جودة الرعاية الصحية وكفاءتها. practiceguides.chambers.com

ت. استراتيجية النرويج الرقمية 2024–2030
تهدف استراتيجية النرويج الرقمية إلى جعل البلاد الأكثر رقمنة في العالم بحلول العام 2030. تركز الاستراتيجية على تعزيز استخدام الذكاء الاصطناعي في الإدارة العامة، تحسين البنية التحتية الرقمية، وضمان حماية البيانات الشخصية. تشمل المبادرات تطوير شبكات اتصال سريعة وآمنة، وتسهيل مشاركة البيانات بين القطاعات المختلفة. igf2025.no
من خلال هذه المشاريع والمبادرات، تسعى النرويج إلى تعزيز مكانتها كمركز رائد في مجال الذكاء الاصطناعي، مع التركيز على الابتكار المسؤول، الاستدامة، وحماية الخصوصية.
في العام 2025، تشهد النرويج تحولًا كبيرًا في مجال التعليم من خلال دمج الذكاء الاصطناعي (AI) في المؤسسات التعليمية، مما يعكس التزامًا قويًا بالابتكار المسؤول والاستدامة
ث. استراتيجية النرويج الوطنية للذكاء الاصطناعي 2025
أعلنت الحكومة النرويجية عن استراتيجية وطنية تهدف إلى تعزيز استخدام الذكاء الاصطناعي في مجالات ذات أولوية، منها الإدارة العامة. تشمل الاستراتيجية تشجيع الهيئات الحكومية على تنفيذ مشاريع تجريبية لاكتساب الخبرة وفهم التكنولوجيا بشكل أفضل. تُعتبر هذه المشاريع التجريبية خطوة مهمة نحو تقييم فعالية الذكاء الاصطناعي في تحسين الخدمات الحكومية Regjeringen.no.

و‌. مراكز البحث الوطنية في الذكاء الاصطناعي
أطلقت النرويج ستة مراكز بحثية متخصصة في الذكاء الاصطناعي، بدعم حكومي يصل إلى 1 مليار كرونة نرويجية، بهدف تعزيز التعليم والبحث في هذا المجال. من بين هذه المراكز:
• AI Learn: يركز على تعزيز التعلم البشري باستخدام الذكاء الاصطناعي، ويشمل تدريب 16 باحث دكتوراه.
• TRUST: يهدف إلى تطوير أنظمة ذكاء اصطناعي موثوقة وآمنة، ويعمل على بناء القدرات في بيئات البحث وزيادة الكفاءة المجتمعية في هذا المجال. mn.uio.no
. KI-Norge: منصة وطنية للذكاء الاصطناعي
تأسست KI-Norge (الذكاء الاصطناعي النرويجي) كمنصة وطنية تهدف إلى تعزيز الاستخدام المسؤول للذكاء الاصطناعي في التعليم والقطاعات الأخرى. تشمل هذه المبادرة إنشاء “AI Sandbox” لاختبار الأنظمة في بيئة آمنة، مما يدعم الابتكار والامتثال للمعايير الأوروبية. digital.nemko.com
1. تطوير المناهج التعليمية
تم تشكيل لجنة حكومية جديدة للإشراف على دمج الذكاء الاصطناعي في التعليم العالي. تعمل اللجنة على تقديم التوجيه للمؤسسات التعليمية حول كيفية دمج الذكاء الاصطناعي في المناهج الدراسية، وضمان الاستخدام المسؤول للتكنولوجيا من قبل الطلاب. Universitetet i Bergen
2. برامج تدريبية ومبادرات تعليمية
• NORA Summer School 2025: عُقدت في جامعة Østfold، حيث تم تقديم أربعة دورات تدريبية في الذكاء الاصطناعي، مما يوفر فرصًا للتعلم المتقدم في هذا المجال. nora.ai
• Nordic ProbAI School: أقيمت في تروندهايم، وركزت على التعلم الآلي الاحتمالي، مما يعزز الفهم العميق للتقنيات المتقدمة في الذكاء الاصطناعي. ProbAI — 2025
أ‌. استخدام الذكاء الاصطناعي في التعليم الأساسي والثانوي
تعمل النرويج على دمج الذكاء الاصطناعي في التعليم الأساسي والثانوي من خلال تطوير أدوات تعليمية ذكية تساعد في تخصيص التعلم وتقديم الدعم الفردي للطلاب. يهدف ذلك إلى تحسين جودة التعليم وضمان الوصول المتساوي للفرص التعليمية.
ه. التحديات والفرص
على الرغم من التقدم المحرز، تواجه النرويج تحديات في ضمان تكافؤ الفرص في الوصول إلى تقنيات الذكاء الاصطناعي، خاصة في المناطق الريفية. ومع ذلك، توفر المبادرات الحكومية والبرامج التعليمية فرصًا لتعزيز الكفاءة الرقمية وتطوير المهارات اللازمة لمواكبة التطورات التكنولوجية.
مشاريع الدكتوراه في القطاع العام
في إطار دعم البحث والتطوير، خصصت النرويج تمويلًا قدره 62 مليون كرونة نرويجية لدعم مشاريع الدكتوراه في القطاع العام، مع التركيز على تطبيقات الذكاء الاصطناعي. تستهدف هذه المبادرة تعزيز التعاون بين الجامعات والمؤسسات الحكومية لتطوير حلول مبتكرة في مجالات مثل الرعاية الصحية، الإدارة العامة، والطاقة Forskningsrådet.
الخاتمة
يؤكد البحث أن الذكاء الاصطناعي يحمل فرصًا عظيمة لتطوير المجتمعات، لكنه في المقابل يثير تهديدات خطيرة للخصوصية الرقمية. التحدي الأساسي يكمن في إيجاد توازن بين الابتكار التكنولوجي وضمان الحقوق الرقمية للأفراد. لذلك، يبقى التعاون بين المشرّعين، الشركات، والمجتمع المدني ضرورة ملحّة لتأمين فضاء رقمي أكثر أمانًا وعدالة.
المراجع المقترحة
– European Union. General Data Protection Regulation (GDPR), 2018.
– Shoshana Zuboff, The Age of Surveillance Capitalism, PublicAffairs, 2019.
– Luciano Floridi, The Ethics of Artificial Intelligence, Oxford University Press, 2020.
– Albrecht, Jan Philipp. How the GDPR Will Change the World, European Data Protection Law Review, 2016.
– تقارير الاتحاد الدولي للاتصالات (ITU) حول الذكاء الاصطناعي وحماية البيانات.
المراجع:
1. استراتيجية النرويج الوطنية للذكاء الاصطناعي
2. KI-Norge: المنصة الوطنية للذكاء الاصطناعي
3. مشاريع الدكتوراه في القطاع العام
4. البنية التحتية الرقمية ودعم الذكاء الاصطناعي
5. التحديات والفرص في تطبيق الذكاء الاصطناعي
6. Forskningsrådet
7. digital.nemko.com
8. Universitetet i Bergen
9. Nora.ai
10. ProbAl-20