أهم مصطلحًا في الذكاء الاصطناعي Ai

 

 

 

 في هذا المقال، سنقوم باستعراض أكثر من 120 مصطلحًا أساسيًا في مجال الذكاء الاصطناعي (Ai). بالتأكيد، في ظل عصر التكنولوجيا المتقدمة بشكل غير عادى لقد أصبح من الصعب متابعة تطور الذكاء الاصطناعي والزيادة المستمرة في عدد المصطلحات والمفاهيم العلمية المرتبطة به.

الذكاء الاصطناعي هو مجال مثير للإعجاب يتطور بسرعة في الوقت الحالي. إنه يشمل تطبيق الذكاء على أجهزة الكمبيوتر لتمكينها من تعلم واتخاذ قرارات بناءً على البيانات والتجارب السابقة. في هذا المقال ، سوف نستكشف بعض المصطلحات الأساسية في مجال الذكاء الاصطناعي.

سنتعرف الآن على أهم وأكثر مصطلحات الذكاء الاصطناعي (Artificial Intelligence Terminology). أذا كنت مهتم بتلك المجال فيجب عليك معرفتها.

1. Artificial Intelligence - الذكاء الاصطناعي (AI)

مجال من علوم الكمبيوتر يركز على إنشاء أنظمة ذكية قادرة على أداء المهام التي تتطلب عادة الذكاء البشري، مثل التعرف على الكلام، والتعرف على الصور، واتخاذ القرار.

2. Machine Learning - التعلم الآلي (ML)

مجموعة فرعية من الذكاء الاصطناعي تتضمن استخدام الخوارزميات والنماذج الإحصائية لتمكين أجهزة الكمبيوتر من التعلم والتنبؤ أو اتخاذ القرارات بناءً على البيانات، دون أن تتم برمجتها بشكل صريح.

3. Deep Learning - التعلم العميق

نوع من التعلم الآلي يستخدم شبكات عصبية اصطناعية ذات طبقات متعددة لمعالجة البيانات وتحليلها، وغالبًا ما تستخدم في مهام مثل التعرف على الصور والكلام.

4. Neural Network - الشبكة العصبية

نوع من النماذج الرياضية مستوحى من بنية وعمل الدماغ البشري، ويستخدم في التعلم العميق لتمكين الآلات من التعلم واتخاذ القرارات.

5. Natural Language Processing - معالجة اللغات الطبيعية (NLP)

مجال فرعي من الذكاء الاصطناعي يركز على تمكين الآلات من فهم اللغة البشرية وتفسيرها والاستجابة لها بطريقة ذات معنى وذات صلة.

6. Computer Vision - رؤية الكمبيوتر

أحد مجالات الذكاء الاصطناعي الذي يتضمن استخدام أجهزة الكمبيوتر لتفسير وفهم المعلومات المرئية من العالم، مثل الصور أو مقاطع الفيديو، وفهم البيانات المرئية المستخدمة في تطبيقات مثل التعرف على الصور، واكتشاف الأشياء، والتعرف على الوجه.

7. Reinforcement Learning - تعزيز التعلم

نوع من التعلم الآلي يتضمن تعلم الوكيل لاتخاذ القرارات واتخاذ الإجراءات في بيئة لتعظيم إشارة المكافأة، وغالبًا ما يستخدم في الأنظمة المستقلة والروبوتات.

8. Algorithm - الخوارزمية

مجموعة من التعليمات أو القواعد التي يتبعها الكمبيوتر لحل مشكلة معينة أو أداء مهمة معينة.

9. Data Science - علم البيانات

مجال متعدد التخصصات يتضمن جمع البيانات وتحليلها وتفسيرها للحصول على رؤى ودعم عمليات صنع القرار، وغالبًا ما يستخدم جنبًا إلى جنب مع الذكاء الاصطناعي لتدريب نماذج التعلم الآلي.

10. Ethics in AI - الأخلاقيات في الذكاء الاصطناعي

النظر في الآثار الأخلاقية والأثر الاجتماعي للذكاء الاصطناعي، بما في ذلك موضوعات مثل التحيز والعدالة والشفافية والمساءلة والخصوصية، في تطوير أنظمة الذكاء الاصطناعي ونشرها واستخدامها.

11. Artificial General Intelligence - الذكاء العام الاصطناعي (AGI)

المفهوم الافتراضي للذكاء الاصطناعي الذي يمتلك القدرة على الفهم والتعلم وتطبيق الذكاء عبر مجموعة واسعة من المهام، على غرار الذكاء البشري.

12. Internet of Things - إنترنت الأشياء (IoT)

شبكة من الأجهزة المادية المترابطة التي تتواصل وتتبادل البيانات مع بعضها البعض، وغالبًا ما تستخدم جنبًا إلى جنب مع الذكاء الاصطناعي لتمكين الأنظمة الذكية والمستقلة.

13. Big Data - البيانات الضخمة

مجموعات بيانات كبيرة ومعقدة للغاية يصعب إدارتها ومعالجتها وتحليلها باستخدام الأساليب التقليدية، وغالبًا ما تستخدم في التعلم الآلي لتدريب النماذج وإجراء التنبؤات.

14. Supervised Learning - التعلم تحت الإشراف

نوع من التعلم الآلي حيث يتم تدريب النموذج باستخدام البيانات المصنفة، حيث يتم توفير المخرجات الصحيحة، لإجراء تنبؤات أو قرارات.

15. Unsupervised Learning - التعلم غير الخاضع للرقابة

نوع من التعلم الآلي حيث يتم تدريب النموذج باستخدام بيانات غير مسماة، حيث لا يتم توفير المخرجات الصحيحة، لتحديد الأنماط أو العلاقات أو الحالات الشاذة في البيانات.

16. Transfer Learning - نقل التعلم

إحدى تقنيات التعلم الآلي حيث يتم استخدام نموذج تم تدريبه على مهمة واحدة لتحسين أداء مهمة أخرى ذات صلة، وغالبًا ما يستخدم للاستفادة من المعرفة الحالية وتقليل الحاجة إلى بيانات تدريب مكثفة.

17. Bias - التحيز

في سياق الذكاء الاصطناعي، يشير التحيز إلى وجود أخطاء منهجية أو ظلم في التنبؤات أو القرارات التي تتخذها أنظمة الذكاء الاصطناعي، والتي غالبًا ما تنتج عن بيانات متحيزة أو خوارزميات متحيزة أو تدريب نموذجي متحيز.

18. Explainable AI - الذكاء الاصطناعي القابل للتفسير (XAI)

مجال الذكاء الاصطناعي الذي يركز على تطوير أنظمة الذكاء الاصطناعي التي تتسم بالشفافية ويمكن أن تقدم تفسيرات مفهومة لتنبؤاتها أو قراراتها، لتعزيز الثقة والمساءلة وقابلية التفسير.

19. Human in the Loop - الإنسان في الحلقة (HITL)

نهج في الذكاء الاصطناعي حيث يتم دمج المدخلات البشرية وردود الفعل في التدريب النموذجي أو عملية صنع القرار لنظام الذكاء الاصطناعي، وغالبًا ما يستخدم لتحسين أداء النموذج، وتخفيف التحيز، وضمان الاعتبارات الأخلاقية. وغالبًا ما يستخدم في تطبيقات مثل اتخاذ القرار بمساعدة الذكاء الاصطناعي، والتعاون بين الإنسان والذكاء الاصطناعي، والتوصيات القائمة على أنظمة الذكاء الاصطناعي.

20. Model Deployment - نشر النموذج

عملية دمج نموذج التعلم الآلي المُدرب في بيئة الإنتاج، حيث يمكن استخدامه لإجراء تنبؤات أو قرارات في الوقت الفعلي.

21. Model Evaluation - تقييم النموذج

عملية تقييم أداء ودقة نموذج التعلم الآلي المُدرب باستخدام مقاييس وتقنيات مختلفة، لتحديد مدى فعاليته في حل المشكلة المقصودة.

22. Model Interpretability - تفسير النموذج

القدرة على فهم وتفسير القرارات أو التنبؤات التي يتخذها نموذج التعلم الآلي، والتي غالبًا ما تكون مهمة لضمان الشفافية والثقة والمساءلة في أنظمة الذكاء الاصطناعي.

23. Hyperparameters - المعلمات الفائقة

المعلمات الموجودة في نموذج التعلم الآلي التي يتم تعيينها قبل عملية التدريب وتؤثر على أداء النموذج، مثل معدل التعلم وحجم الدفعة وعدد الطبقات.

24. Overfitting - التجهيز الزائد

ظاهرة في التعلم الآلي حيث يؤدي النموذج أداءً جيدًا على بيانات التدريب ولكنه يفشل في التعميم على البيانات الجديدة غير المرئية، وغالبًا ما يحدث ذلك بسبب كون النموذج معقدًا للغاية أو عدم كفاية بيانات التدريب.

25. Ensemble Learning - التعلم الجماعي

أسلوب في التعلم الآلي يتضمن الجمع بين تنبؤات نماذج متعددة لتحسين الأداء العام ودقة التنبؤات.

26. Feature Engineering - هندسة الميزات

عملية اختيار أو تحويل أو إنشاء الميزات أو المتغيرات ذات الصلة من البيانات الأولية لتحسين أداء نموذج التعلم الآلي.

27. Preprocessing - المعالجة المسبقة

خطوة في التعلم الآلي تتضمن تنظيف البيانات الأولية أو تطبيعها أو تحويلها إلى تنسيق يمكن استخدامه للتدريب النموذجي، وغالبًا ما يتضمن مهام مثل تنظيف البيانات وقياس الميزات وترميز البيانات.

28. Deployment Bias - تحيز النشر

التحيز الذي يمكن أن ينشأ في التطبيق الواقعي لأنظمة الذكاء الاصطناعي بسبب الاختلافات بين بيانات التدريب وبيئة النشر، والذي غالبًا ما يتطلب جهودًا مستمرة للمراقبة والتخفيف.

29. Robustness - المتانة

قدرة نموذج التعلم الآلي على الأداء الجيد وإجراء تنبؤات دقيقة حتى في ظل وجود ضوضاء أو عدم يقين أو هجمات عدائية.

30. Privacy-Preserving AI - الذكاء الاصطناعي للحفاظ على الخصوصية

مجال الذكاء الاصطناعي الذي يركز على تطوير تقنيات وأساليب لحماية خصوصية وسرية البيانات المستخدمة في التعلم الآلي، مما يضمن عدم الكشف عن المعلومات الحساسة أو المساس بها.

31. Explainable AI - الذكاء الاصطناعي القابل للتفسير (XAI)

مجال الذكاء الاصطناعي الذي يهدف إلى تطوير نماذج وأنظمة يمكنها تقديم تفسيرات مفهومة وقابلة للتفسير لتنبؤاتها أو قراراتها، مما يعزز الثقة والمساءلة والشفافية.

32. Reinforcement Learning - تعزيز التعلم

نوع من التعلم الآلي حيث يتعلم الوكيل كيفية اتخاذ القرارات أو اتخاذ إجراءات في بيئة لتعظيم إشارة المكافأة التراكمية، وغالبًا ما يستخدم في مجالات مثل الروبوتات وممارسة الألعاب والأنظمة المستقلة.

33. Transfer Learning - نقل التعلم

اسلوب في التعلم الآلي حيث يتم استخدام نموذج تم تدريبه مسبقًا، والذي يتم تدريبه عادةً على مجموعة بيانات كبيرة، كنقطة بداية لتدريب نموذج جديد على مجموعة بيانات أصغر ذات صلة، مما يسمح بتدريب النموذج بشكل أسرع وأكثر فعالية.

34. Unsupervised Learning - التعلم غير الخاضع للرقابة

نوع من التعلم الآلي حيث يتعلم النموذج من البيانات غير المسماة، دون أي إشراف صريح أو أمثلة مصنفة، وغالبًا ما يستخدم لمهام مثل التجميع واكتشاف الحالات الشاذة وتقليل الأبعاد.

35. Natural Language Processing - معالجة اللغات الطبيعية (NLP)

مجال الذكاء الاصطناعي الذي يركز على تمكين أجهزة الكمبيوتر من فهم وتفسير وإنشاء اللغة البشرية، وغالبًا ما تستخدم في تطبيقات مثل تحليل النصوص، وتحليل المشاعر، والترجمة الآلية، وروبوتات الدردشة.

36. Deep fakes - التزييف العميق

عبارة عن خدعة مقنعة للصور أو الصوت أو الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي. يمكن أن يكون التزييف العميق محتوى أصليًا بالكامل يظهر شخصًا يفعل أو يقول شيئًا لم يفعله أو يقوله. يمكنهم أيضًا تصوير الأحداث الإخبارية المزيفة.

37. Deep Learning - التعلم العميق

حقل فرعي من التعلم الآلي يتضمن تدريب الشبكات العصبية الاصطناعية ذات طبقات متعددة لتعلم التمثيل الهرمي للبيانات تلقائيًا، وغالبًا ما يستخدم في مجالات مثل التعرف على الصور والكلام، ومعالجة اللغة الطبيعية، وأنظمة التوصية.

38. Edge Computing - حوسبة الحافة

مفهوم معالجة البيانات وإجراء العمليات الحسابية عند مصدر توليد البيانات أو بالقرب منه، بدلاً من الاعتماد فقط على المعالجة المستندة إلى السحابة، غالبًا ما يستخدم في أنظمة الذكاء الاصطناعي التي تتطلب معالجة في الوقت الفعلي أو معالجة بزمن وصول منخفض.

39. Bias in AI - التحيز في الذكاء الاصطناعي

وجود أخطاء منهجية أو تمييز في أنظمة الذكاء الاصطناعي، والتي غالبًا ما تنشأ عن بيانات التدريب المتحيزة أو الخوارزميات المتحيزة أو التصميم المتحيز، مما يؤدي إلى نتائج غير عادلة أو تمييزية، ويتطلب اتخاذ تدابير تخفيف دقيقة لضمان العدالة والمساءلة والاستخدام الأخلاقي.

40. Deep learning - تعلم عميق

هو نوع من التعلم الآلي الذي يحاكي الطريقة التي يكتسب بها البشر أنواعًا معينة من المعرفة.

41. AI Ethics - أخلاقيات الذكاء الاصطناعي

فرع الأخلاق الذي يركز على التطوير المسؤول لأنظمة الذكاء الاصطناعي ونشرها واستخدامها، بما في ذلك اعتبارات مثل العدالة والشفافية والمساءلة والخصوصية والتحيز والتأثير المجتمعي.

42. Data Bias - تحيز البيانات

التحيز الذي يمكن إدخاله في أنظمة الذكاء الاصطناعي بسبب البيانات المتحيزة المستخدمة للتدريب، مما يؤدي إلى تنبؤات أو قرارات متحيزة، ويتطلب جمع البيانات بعناية، والمعالجة المسبقة، وتقنيات تخفيف التحيز.

43. Federated Learning - التعلم الموحد

نهج موزع للتعلم الآلي حيث تتعاون أجهزة أو خوادم متعددة لتدريب نموذج مشترك بشكل جماعي، مع الحفاظ على لامركزية البيانات والحفاظ على الخصوصية، وغالبًا ما يستخدم في السيناريوهات التي لا يمكن فيها مركزية البيانات بسبب الخصوصية أو المخاوف التنظيمية.

44. AutoML - (Automated Machine Learning) (التعلم الآلي)

استخدام الأدوات والتقنيات والخوارزميات الآلية للبحث تلقائيًا واختيار وتحسين نماذج التعلم الآلي والمعلمات الفائقة وهندسة الميزات، مما يقلل الحاجة إلى التدخل اليدوي والخبرة في عملية تطوير النموذج.

45. AI Governance - حوكمة الذكاء الاصطناعي

إطار السياسات واللوائح والمبادئ التوجيهية التي تحكم تطوير ونشر واستخدام أنظمة الذكاء الاصطناعي، والتي تهدف إلى ضمان الاستخدام الأخلاقي والشفاف والمسؤول للذكاء الاصطناعي في مختلف المجالات، بما في ذلك الصناعة والرعاية الصحية والمالية والحكومة.

46.Embodied agents  - وكلاء مجسمة

يشار إليهم أيضًا باسم الذكاء الاصطناعي المتجسد، هم عملاء ذكاء اصطناعي لديهم جسد مادي يؤدون مهام محددة في البيئة المادية.

47. Adversarial Machine Learning - التعلم الآلي العدائي

دراسة نقاط الضعف والهجمات على نماذج التعلم الآلي، حيث يتم تصميم المدخلات أو الاضطرابات الضارة عمدًا لخداع تنبؤات النموذج أو التلاعب بها، مما يؤدي إلى مخاطر أمنية محتملة، ويتطلب دفاعات وإجراءات مضادة قوية.

48. GIGO - القمامة داخل والقمامة خارج

GIGO هو مفهوم في علوم الكمبيوتر ينص على أن جودة مخرجات النظام تعتمد على جودة المدخلات. إذا كان المدخل سلة المهملات، فسيكون المخرج سلة المهملات. بمعنى إذا تم تدريب الذكاء الاصطناعي على بيانات منخفضة الجودة، فيمكن للمستخدم أن يتوقع أن تكون نتائجه رديئة أيضًا.

49. AI Bias Mitigation - التخفيف من تحيز الذكاء الاصطناعي

التقنيات والاستراتيجيات المستخدمة لتحديد وتخفيف وتقليل التحيزات في أنظمة الذكاء الاصطناعي، بما في ذلك إعادة أخذ العينات وإعادة الوزن والتدريب على الخصومة وخوارزميات التعلم الآلي المدركة للعدالة، بهدف ضمان نتائج عادلة وغير متحيزة في تطبيقات الذكاء الاصطناعي.

50. AI Transparency - شفافية الذكاء الاصطناعي

مستوى الانفتاح والوضوح وسهولة الفهم لعمليات نظام الذكاء الاصطناعي وقراراته وتوقعاته، والذي يتم تحقيقه غالبًا من خلال تقنيات مثل الذكاء الاصطناعي القابل للتفسير (XAI) وقابلية تفسير النموذج والتصور، مما يمكّن أصحاب المصلحة من فهم نظام الذكاء الاصطناعي والثقة فيه.

51. AI Robustness - قوة الذكاء الاصطناعي

قدرة نظام الذكاء الاصطناعي على الحفاظ على أدائه ودقته في ظل ظروف مختلفة، بما في ذلك المدخلات الصاخبة أو المتعارضة، والبيئات المختلفة، والسيناريوهات غير المتوقعة، والتي يتم تحقيقها غالبًا من خلال تقنيات مثل التحسين القوي، وطرق التجميع، وتنظيم النماذج.

52. AI Explainability - شرح الذكاء الاصطناعي

قدرة نظام الذكاء الاصطناعي على تقديم تفسيرات واضحة ومفهومة لتنبؤاته أو قراراته أو أفعاله، مما يسمح للمستخدمين بفهم المنطق والمنطق وراء مخرجات النظام، وتسهيل الثقة والمساءلة وقابلية التفسير.

53. AI Interpretability - الذكاء الاصطناعي للتفسير

الدرجة التي يمكن بها فهم العمليات أو الميزات أو التمثيلات الداخلية لنظام الذكاء الاصطناعي وتفسيرها بمصطلحات يمكن للإنسان فهمها، والتي يتم تحقيقها غالبًا من خلال تقنيات مثل تحليل أهمية الميزات، والتصور، واستخراج القواعد.

54. AI Bias Awareness - الوعي بتحيز الذكاء الاصطناعي

التعرف على وفهم التحيزات المحتملة التي يمكن أن تنشأ في أنظمة الذكاء الاصطناعي بسبب البيانات أو الخوارزميات أو قرارات التصميم المتحيزة، والخطوات الاستباقية المتخذة لتحديد هذه التحيزات وقياسها والتخفيف منها لضمان العدالة والإنصاف والشمولية.

55. AI Fairness - عدالة الذكاء الاصطناعي

مبدأ ضمان المعاملة العادلة وغير المتحيزة لمختلف المجموعات أو الأفراد من خلال نظام الذكاء الاصطناعي، بغض النظر عن خصائصهم الديموغرافية، وتجنب التمييز أو التحيز أو الظلم في نتائج النظام، والذي يتم تحقيقه غالبًا من خلال تقنيات مثل التعلم الآلي المدرك للعدالة، والإنصاف المقاييس وتخفيف التحيز.

56. Generative artificial intelligence - الذكاء الاصطناعي التوليدي

هو تقنية ذكاء اصطناعي تقوم بإنشاء المحتوى من خلال أنماط التعلم في بيانات التدريب وتجميع مواد جديدة بنفس الخصائص المستفادة.

57. AI Privacy - خصوصية الذكاء الاصطناعي

حماية المعلومات الشخصية للأفراد وخصوصية البيانات في سياق أنظمة الذكاء الاصطناعي، بما في ذلك جمع البيانات وتخزينها ومشاركتها واستخدامها، والامتثال للقوانين واللوائح والمبادئ التوجيهية الأخلاقية ذات الصلة لضمان خصوصية وأمن بيانات المستخدم.

58. AI Security - أمن الذكاء الاصطناعي

حماية أنظمة الذكاء الاصطناعي من الوصول غير المصرح به أو التلاعب أو الهجمات الضارة التي يمكن أن تهدد سلامتها أو سريتها أو توفرها، ويتم تحقيق ذلك غالبًا من خلال تقنيات مثل التشفير والمصادقة والنشر القوي.

59. AI Governance Framework - إطار حوكمة الذكاء الاصطناعي

مجموعة شاملة من السياسات والمبادئ التوجيهية التي توجه التطوير المسؤول والأخلاقي ونشر واستخدام أنظمة الذكاء الاصطناعي، مع مراعاة الاعتبارات القانونية والأخلاقية والاجتماعية والتقنية، وضمان توافق أنظمة الذكاء الاصطناعي مع القيم الإنسانية والمجتمعية.

60. AI Adoption - اعتماد الذكاء الاصطناعي

عملية دمج تقنيات الذكاء الاصطناعي وتطبيقاته في مختلف المجالات والصناعات، بما في ذلك تخطيط أنظمة الذكاء الاصطناعي وتطويرها وتنفيذها وتقييمها، والتأكد من أنها تحقق قيمة وفوائد وتأثيرًا إيجابيًا على المجتمع والاقتصاد والأفراد.

61. AI Regulation - تنظيم الذكاء الاصطناعي

تطوير وإنفاذ القوانين واللوائح والسياسات التي تحكم تطوير ونشر واستخدام أنظمة الذكاء الاصطناعي، بهدف ضمان ممارسات الذكاء الاصطناعي المسؤولة والأخلاقية والخاضعة للمساءلة، وحماية حقوق المستخدم، ومعالجة المخاطر والتحديات المحتملة المرتبطة بالذكاء الاصطناعي. تقنيات الذكاء الاصطناعي.

62. AI Ethics Committee - لجنة أخلاقيات الذكاء الاصطناعي

مجموعة من الخبراء أو أصحاب المصلحة المسؤولين عن تقديم التوجيه والإشراف والتوصيات بشأن الآثار الأخلاقية لتطوير واستخدام الذكاء الاصطناعي، ومراجعة وتقييم مشاريع الذكاء الاصطناعي للاعتبارات الأخلاقية، وضمان تطوير تقنيات الذكاء الاصطناعي واستخدامها بطريقة تتماشى مع الأخلاقيات.

63. LLM - نموذج اللغة الكبير

LLMs عبارة عن خوارزميات تعلم عميقة تفهم المحتوى الجديد وتلخصه وتنشئه وتتنبأ به. وهي تحتوي عادةً على العديد من المعلمات ويتم تدريبها على مجموعة كبيرة من النصوص غير المسماة. GPT-3 هو LLM.

64. LLaMA - نموذج اللغة الكبير

نموذج Meta AI (LLaMA). عبارة عن LLM مفتوح المصدر تم إصداره بواسطة Meta.

65. AI Education - تعليم الذكاء الاصطناعي

عملية توفير التعليم والتدريب حول مفاهيم الذكاء الاصطناعي وتقنياته وأخلاقياته وأفضل الممارسات لمختلف أصحاب المصلحة، بما في ذلك المطورين والمستخدمين وواضعي السياسات وعامة الناس، لرفع مستوى الوعي وتعزيز ممارسات الذكاء الاصطناعي المسؤولة وتعزيز الذكاء الاصطناعي المستنير.

66. AI Impact Assessment - تقييم تأثير الذكاء الاصطناعي

تقييم الآثار الاجتماعية والاقتصادية والبيئية المحتملة لأنظمة الذكاء الاصطناعي، بما في ذلك فوائدها ومخاطرها، لفهم أي عواقب غير مقصودة والتخفيف منها، والتأكد من تطوير تقنيات الذكاء الاصطناعي واستخدامها بطريقة تتوافق مع القيم والأهداف المجتمعية.

67. AI Governance Body - هيئة حوكمة الذكاء الاصطناعي

هيئة تنظيمية أو رقابية مسؤولة عن مراقبة وتنظيم تطوير واستخدام الذكاء الاصطناعي، ووضع المعايير والمبادئ التوجيهية والسياسات الخاصة بتقنيات الذكاء الاصطناعي، وضمان تطوير أنظمة الذكاء الاصطناعي واستخدامها بطريقة تتوافق مع المتطلبات الأخلاقية والقانونية والمجتمعية.

68. AI Audits - عمليات تدقيق الذكاء الاصطناعي

عملية إجراء عمليات تدقيق منتظمة لأنظمة الذكاء الاصطناعي لتقييم امتثالها للمعايير الأخلاقية والقانونية والتنظيمية، بما في ذلك استخدام البيانات وعدالة الخوارزميات والشفافية والمساءلة، واتخاذ التدابير التصحيحية عند الضرورة لضمان ممارسات الذكاء الاصطناعي المسؤولة.

69. AI Responsible Innovation - الابتكار المسؤول في الذكاء الاصطناعي

نهج تطوير تقنيات الذكاء الاصطناعي بطريقة تأخذ في الاعتبار التأثيرات المحتملة على المجتمع والاقتصاد والأفراد، والتأكد من تصميم أنظمة الذكاء الاصطناعي ونشرها واستخدامها بشكل مسؤول وأخلاقي، مع مراعاة آثارها الأوسع.

70. AI Risk Management - إدارة مخاطر الذكاء الاصطناعي

ممارسة تحديد وتقييم وتخفيف المخاطر المرتبطة بتقنيات الذكاء الاصطناعي، بما في ذلك التحيزات ونقاط الضعف الأمنية والضرر المحتمل للمستخدمين أو المجتمع، واتخاذ تدابير استباقية لتقليل المخاطر وضمان التطوير والاستخدام المسؤول لأنظمة الذكاء الاصطناعي.

71. Artificial intelligence hallucinations - هلوسة

هي عندما يقدم نظام الذكاء الاصطناعي معلومات كاذبة في إطار الحقيقة. على سبيل المثال، قد يؤدي مطالبة روبوت الدردشة بكتابة تقرير بحثي من خمس صفحات مع الاستشهادات والروابط إلى إنشاء روابط مزيفة تبدو حقيقية ولكنها لا تؤدي إلى أي شيء أو تلفيق اقتباسات من شخصيات عامة كدليل. يختلف التزييف العميق عن الهلوسة من حيث أنه تم إنشاؤه عمدًا كخدعة لخداع المشاهد.

72. AI Fairness - عدالة الذكاء الاصطناعي

مفهوم التأكد من أن أنظمة الذكاء الاصطناعي لا تميز ضد أي مجموعة أو فرد معين، وأنها مصممة ومدربة لتكون عادلة وغير متحيزة ومنصفة في عمليات صنع القرار الخاصة بها، لمنع التمييز أو إدامة التحيزات المجتمعية.

73. PaLM - نموذج لغة المسارات

PaLM هي شهادة LLM تعتمد على المحولات من Google، وتعتمد على تقنية مشابهة لـ GPT-3 وGPT-4. يعمل برنامج الدردشة الآلي Google Bard على نظام PaLM.

74. Q-learning - التعلم

هو نوع من التعلم المعزز الذي يمكّن نماذج الذكاء الاصطناعي من التعلم والتحسين بشكل متكرر مع مرور الوقت.

75. Sentiment analysis - تحليل المشاعر

معروف أيضًا باسم التنقيب عن الرأي ، هو عملية تحليل النص لمعرفة النغمة والرأي باستخدام الذكاء الاصطناعي.

76. AI Robustness - قوة الذكاء الاصطناعي

مرونة أنظمة الذكاء الاصطناعي في مواجهة الهجمات العدائية والأخطاء والمدخلات غير المتوقعة، مما يضمن أن تقنيات الذكاء الاصطناعي موثوقة ودقيقة وقادرة على التعامل مع سيناريوهات العالم الحقيقي دون المساس بأدائها أو سلامتها.

77. Dall-E- إطار حوكمة الذكاء الاصطناعي

دال-E هو منشئ الصور الذي يعمل بالذكاء الاصطناعي من OpenAI. يرسل المستخدمون مطالبة نصية، وتقوم أداة الذكاء الاصطناعي بإنشاء صورة مقابلة.

78. AI Stakeholder Engagement - مشاركة أصحاب المصلحة في الذكاء الاصطناعي

ممارسة إشراك مختلف أصحاب المصلحة، بما في ذلك المستخدمين وواضعي السياسات وخبراء الصناعة والمجتمع المدني، في عمليات صنع القرار المتعلقة بتطوير الذكاء الاصطناعي ونشره، لضمان أخذ وجهات نظر متعددة في الاعتبار وتعزيز الشفافية والشمولية والمساءلة.

79. AI Compliance - الامتثال لمنظمة العفو الدولية

الالتزام بالمتطلبات القانونية والتنظيمية والأخلاقية في تطوير واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك ضمان امتثال أنظمة الذكاء الاصطناعي للقوانين واللوائح والمبادئ التوجيهية ذات الصلة، وأنها تستخدم بطريقة تتفق مع المبادئ الأخلاقية والقيم المجتمعية.

80. Chatbot - روبوت الدردشة - 

عبارة عن أداة مدعومة بالذكاء الاصطناعي مصممة للتواصل مع الأشخاص بطريقة تحادثيه. ChatGPT هو مثال على chatbot. تُستخدم أحيانًا روبوتات الدردشة التوليدية المستندة إلى الذكاء الاصطناعي كبديل لمحركات البحث لاسترجاع المعلومات.

81. Transcend history - تاريخ القطع

هو التاريخ الذي تنتهي فيه معلومات النموذج. لا تستطيع نماذج الذكاء الاصطناعي تذكر المعلومات بعد التاريخ المحدد. على سبيل المثال، الموعد النهائي لـ GPT-3.5 هو سبتمبر 2021.

82. AI Accountability Framework - إطار المساءلة في مجال الذكاء الاصطناعي

مجموعة من المبادئ التوجيهية والعمليات والآليات التي تحدد خطوطًا واضحة للمسؤولية والمساءلة عن تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي، مما يضمن تحمل أصحاب المصلحة المسؤولية عن أفعالهم وقراراتهم المتعلقة بأنظمة الذكاء الاصطناعي.

83. AI Governance Policies - سياسات حوكمة الذكاء الاصطناعي

السياسات والمبادئ التوجيهية الرسمية التي تحدد المبادئ والممارسات والمتطلبات اللازمة للتطوير والنشر المسؤول لتقنيات الذكاء الاصطناعي، ومعالجة الجوانب الأخلاقية والقانونية والاجتماعية والتقنية لحوكمة الذكاء الاصطناعي، وتوفير إطار لصنع القرار.

84. . ChatGPT - شات جي بي تي

شات جي بي تي هو برنامج دردشة آلي من OpenAI أحدث موجة من الاهتمام العام الموجه نحو نماذج اللغات الكبيرة والذكاء الاصطناعي التوليدي. ويستخدم الخوارزميات لإنتاج استجابات نصية لإدخال المستخدم باللغة الطبيعية.

85. Confirm the validity of the data

التحقق من صحة البيانات هو عملية التحقق من جودة البيانات قبل استخدامها لتطوير نماذج الذكاء الاصطناعي وتدريبها.

86. AI Human-Centric Design - تصميم الذكاء الاصطناعي المرتكز على الإنسان

نهج تصميم تقنيات الذكاء الاصطناعي مع التركيز على احتياجات الإنسان وقيمه ورفاهيته، وضمان توافق أنظمة الذكاء الاصطناعي مع المصالح الإنسانية، واحترام حقوق الإنسان، وتعزيز القيم الإنسانية، لتجنب التحيزات أو الأذى الناجم عن التكنولوجيا.

87. AI Data Governance - إدارة بيانات الذكاء الاصطناعي

إدارة وحوكمة البيانات المستخدمة في أنظمة الذكاء الاصطناعي، بما في ذلك جمع البيانات وتخزينها ومعالجتها ومشاركتها، مما يضمن دقة البيانات المستخدمة في تقنيات الذكاء الاصطناعي وموثوقيتها وآمنة واستخدامها بما يتوافق مع القوانين واللوائح والاعتبارات الأخلاقية ذات الصلة.

88. AI Algorithmic Transparency - الشفافية الخوارزمية لمنظمة العفو الدولية

رؤية وفهم الخوارزميات المستخدمة في أنظمة الذكاء الاصطناعي، مما يسمح للمستخدمين وأصحاب المصلحة بفهم كيفية اتخاذ القرارات والإجراءات بواسطة نظام الذكاء الاصطناعي، وتمكين المساءلة والعدالة والجدارة بالثقة.

89. Appearance of

يصف الظهور القدرات التي تنشأ في أنظمة الذكاء الاصطناعي بشكل غير متوقع عندما تصبح أكثر تعقيدًا. الخصائص الناشئة للنظام لا يمكن ملاحظتها في أجزائه الفردية.

90. AI Education and Literacy - الذكاء الاصطناعي التعليم ومحو الأمية

تعزيز التعليم والوعي ومحو الأمية حول تقنيات الذكاء الاصطناعي بين المستخدمين وواضعي السياسات وخبراء الصناعة وعامة الناس، لتعزيز فهم أفضل لمفاهيم الذكاء الاصطناعي وآثاره واعتباراته الأخلاقية، وتعزيز الاستخدام المسؤول والمستنير لتقنيات الذكاء الاصطناعي.

91. AI Regulation - تنظيم الذكاء الاصطناعي

تطوير وإنفاذ الأطر القانونية والتنظيمية التي تحكم تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي، مما يضمن استخدام أنظمة الذكاء الاصطناعي بما يتوافق مع القوانين واللوائح والمعايير الأخلاقية ذات الصلة، وتخفيف المخاطر والأضرار المحتملة.

92. AI Bias Detection - كشف التحيز بالذكاء الاصطناعي

عملية تحديد التحيزات في أنظمة الذكاء الاصطناعي، بما في ذلك التحيزات في البيانات والخوارزميات وعمليات صنع القرار، باستخدام تقنيات مثل التدقيق والمراقبة والاختبار، لاكتشاف التحيزات ومعالجتها وضمان تقنيات الذكاء الاصطناعي العادلة وغير المتحيزة.

93. شبكة الخصومة التوليدية - GAN

شبكة GAN هي نوع من التعلم الآلي يتكون من شبكتين عصبيتين: واحدة تولد البيانات والأخرى تميز البيانات وتنقيها. تتنافس الشبكتان العصبيتان لإنشاء تنبؤات أكثر دقة.

94. AI Decision-Making Ethics - أخلاقيات صنع القرار في مجال الذكاء الاصطناعي

الاعتبارات الأخلاقية المتعلقة باتخاذ قرارات أنظمة الذكاء الاصطناعي، بما في ذلك قضايا مثل المساءلة والشفافية والعدالة والرقابة البشرية، لضمان أن تقنيات الذكاء الاصطناعي تتخذ قرارات تتوافق مع القيم المجتمعية، ولا تضر الأفراد أو المجتمعات، وتتسم بالشفافية والمساءلة.

95. AI Governance Implementation - تنفيذ حوكمة الذكاء الاصطناعي

عملية تنفيذ سياسات وممارسات حوكمة الذكاء الاصطناعي في المنظمات والمؤسسات، بما في ذلك إنشاء آليات لإنفاذ السياسات ومراقبتها وتقييمها، لضمان تطوير تقنيات الذكاء الاصطناعي ونشرها واستخدامها بما يتوافق مع المعايير الأخلاقية والتنظيمية المعمول بها.

96. AI Privacy and Security - الخصوصية والأمن في الذكاء الاصطناعي

حماية بيانات المستخدم وأمن أنظمة الذكاء الاصطناعي، بما في ذلك تدابير مثل تشفير البيانات، وضوابط الوصول، واختبار نقاط الضعف، للحماية من الوصول غير المصرح به، وانتهاكات البيانات، وإساءة استخدام تقنيات الذكاء الاصطناعي، وضمان خصوصية المستخدم وأمن البيانات.

97. OpenAI

OpenAI هي شركة ذكاء اصطناعي أمريكية. وهي تجري أبحاثًا حول الذكاء الاصطناعي وقد طورت العديد من نماذج وخدمات الذكاء الاصطناعي، بما في ذلك GPT-3 وChatGPT وDall-E.

98. AI Fairness - عدالة الذكاء الاصطناعي

المبدأ القائل بوجوب تطوير تقنيات الذكاء الاصطناعي واستخدامها بطريقة عادلة وغير متحيزة، دون التمييز ضد الأفراد أو المجموعات على أساس عوامل مثل العرق أو الجنس أو العمر أو الدين، لتعزيز المساواة الاجتماعية ومنع النتائج التمييزية.

99. AI Validation and Verification - التحقق من صحة الذكاء الاصطناعي والتحقق منه

عملية التحقق من دقة وموثوقية وفعالية تقنيات الذكاء الاصطناعي، بما في ذلك الاختبار والتحقق من الخوارزميات والنماذج والبيانات المستخدمة في أنظمة الذكاء الاصطناعي، لضمان أدائها وفعاليتها في سيناريوهات العالم الحقيقي.

100. AI Compliance and Auditing - الامتثال والتدقيق في مجال الذكاء الاصطناعي

ممارسة ضمان امتثال تقنيات الذكاء الاصطناعي للقوانين واللوائح والمعايير الأخلاقية ذات الصلة، وإجراء عمليات تدقيق وتقييمات منتظمة للتحقق من الامتثال وتحديد المخاطر ومعالجة المشكلات المتعلقة بالاستخدام الأخلاقي والمسؤول للذكاء الاصطناعي.

101. AI Adoption and Impact Assessment - اعتماد الذكاء الاصطناعي وتقييم الأثر

تقييم اعتماد وتأثير تقنيات الذكاء الاصطناعي على المجتمع، بما في ذلك تقييم الآثار المجتمعية والاقتصادية والثقافية لتقنيات الذكاء الاصطناعي، وتحديد وتخفيف المخاطر والأضرار المحتملة المرتبطة باستخدامها.

102. The teachers

تشير المعلمات في الذكاء الاصطناعي إلى الإعدادات الداخلية التي يتم تعلمها بواسطة نموذج التعلم الآلي أثناء عملية التدريب. تعمل المعلمات على زيادة نهج النموذج في التعرف على الأنماط.

103. Summoned- اِسْتَدْعَى

المطالبة هي مدخلات يرسلها المستخدم إلى نظام الذكاء الاصطناعي مع بعض النتائج المتوقعة. تنتج بعض الشركات، مثل GoDaddy وUproer، مكتبات سريعة لاستخدامها مع تطبيقات الذكاء الاصطناعي التوليدية، مثل ChatGPT.

104. Supervised learning

التعلم تحت الإشراف. يقوم التعلم الخاضع للإشراف بتدريب خوارزميات التعلم الآلي على البيانات ذات التصنيفات، المعروفة باسم البيانات المنظمة.

105. AI Regulation Compliance - الامتثال للوائح منظمة العفو الدولية

الالتزام بالقوانين واللوائح والمعايير الأخلاقية ذات الصلة في تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك الحصول على الموافقات والتراخيص والشهادات اللازمة، والحفاظ على الامتثال للمتطلبات القانونية والتنظيمية طوال دورة حياة نظام الذكاء الاصطناعي.

106. AI Governance Enforcement - إنفاذ حوكمة الذكاء الاصطناعي

إنفاذ سياسات وممارسات حوكمة الذكاء الاصطناعي، بما في ذلك المراقبة والتدقيق والعقوبات، لضمان الامتثال للمعايير الأخلاقية والتنظيمية المعمول بها، ومحاسبة أصحاب المصلحة عن أفعالهم وقراراتهم المتعلقة بتقنيات الذكاء الاصطناعي.

107. Training data - بيانات التدريب

تشير بيانات التدريب إلى المعلومات أو الأمثلة المستخدمة لتدريب نموذج التعلم الآلي. تحتاج نماذج الذكاء الاصطناعي إلى مجموعة كبيرة من بيانات التدريب لتعلم الأنماط وتوجيه سلوكها.

108. AI Standards - معايير الذكاء الاصطناعي

تطوير واعتماد معايير على مستوى الصناعة لتقنيات الذكاء الاصطناعي، بما في ذلك معايير خصوصية البيانات والشفافية الخوارزمية والعدالة والمساءلة والأمن، لتعزيز التطوير المسؤول والأخلاقي ونشر واستخدام تقنيات الذكاء الاصطناعي.

109. AI Governance Review - مراجعة حوكمة الذكاء الاصطناعي

المراجعة والتقييم الدوريان لسياسات وممارسات حوكمة الذكاء الاصطناعي، بما في ذلك تقييم فعاليتها وتحديد الثغرات وتحديث أو تحسين إطار الحوكمة حسب الحاجة، لضمان التحسين المستمر والمواءمة مع الاحتياجات المجتمعية المتغيرة والتقدم التكنولوجي.

110. AI Education and Awareness - التعليم والتوعية بالذكاء الاصطناعي

تعزيز التعليم والوعي حول تقنيات الذكاء الاصطناعي وفوائدها المحتملة ومخاطرها واعتباراتها الأخلاقية بين مختلف أصحاب المصلحة، بما في ذلك المستخدمين وواضعي السياسات ومحترفي الصناعة وعامة الناس، لتعزيز اتخاذ القرارات المستنيرة والاستخدام المسؤول لتقنيات الذكاء الاصطناعي.

111. AI Collaboration and Partnerships - التعاون والشراكات في مجال الذكاء الاصطناعي

إقامة تعاون وشراكات بين مختلف أصحاب المصلحة، بما في ذلك الأوساط الأكاديمية والصناعة والمجتمع المدني وواضعي السياسات، لتعزيز الجهود الجماعية في مواجهة تحديات حوكمة الذكاء الاصطناعي، وتبادل أفضل الممارسات، وتطوير حلول تعاونية لتطوير الذكاء الاصطناعي ونشره واستخدامه بشكل مسؤول.

112. AI International Cooperation - التعاون الدولي في مجال الذكاء الاصطناعي

تعزيز التعاون والتنسيق الدوليين بين مختلف البلدان والمناطق لوضع مبادئ ومبادئ توجيهية وأطار مشترك لحوكمة الذكاء الاصطناعي المسؤولة والأخلاقية، ولمواجهة التحديات العالمية المتعلقة بالذكاء الاصطناعي، بما في ذلك قضايا مثل خصوصية البيانات والأمن والعدالة والمساءلة.

113. Transformer models

نماذج المحولات هي بنية نموذجية للذكاء الاصطناعي تستخدم في البرمجة اللغوية العصبية. النماذج القائمة على المحولات هي شبكات عصبية يمكنها معالجة السياق والتبعيات طويلة المدى في اللغة بشكل فريد.

114. AI Ethical Decision-Making - صنع القرار الأخلاقي في مجال الذكاء الاصطناعي

دمج الاعتبارات الأخلاقية في عمليات صنع القرار المتعلقة بتقنيات الذكاء الاصطناعي، بما في ذلك تقييمات الأثر الأخلاقي، وتقييمات المخاطر الأخلاقية، وأطار صنع القرارات الأخلاقية، لضمان تطوير تقنيات الذكاء الاصطناعي ونشرها واستخدامها بما يتماشى مع المبادئ الأخلاقية والقيم الأخلاقية.

115. Token- رمز مميز

الرمز المميز هو الوحدة الأساسية للنص الذي يستخدمه LLM لفهم اللغة وتوليدها. وقد تكون كلمة أو أجزاء من كلمة. تقوم شهادات LLM المدفوعة، مثل واجهة برمجة تطبيقات GPT-4، بفرض رسوم على المستخدمين عن طريق الرمز المميز.

116. Zero learning

هو أسلوب للتعلم الآلي حيث تراقب الخوارزميات العينات التي لم تكن موجودة في التدريب وتتنبأ بالفئة التي تنتمي إليها. على سبيل المثال، سيتم مطالبة مصنف الصور الذي تم تدريبه فقط على التعرف على القطط بتصنيف صورة أسد مع العلم ببعض المعلومات الإضافية - أن الأسود قطط كبيرة.

117. AI Social Impact Assessment - تقييم الأثر الاجتماعي للذكاء الاصطناعي

تقييم التأثير الاجتماعي لتقنيات الذكاء الاصطناعي، بما في ذلك تقييم العواقب المحتملة للذكاء الاصطناعي على التوظيف والاقتصاد والمجتمع والثقافة والحوكمة، ووضع استراتيجيات وتدابير للتخفيف من الآثار السلبية وتعظيم الفوائد المجتمعية لتقنيات الذكاء الاصطناعي. 

لضمان مساهمة تقنيات الذكاء الاصطناعي في الرفاهية المجتمعية وتعزيز التنمية الشاملة والمستدامة.

118. AI Bias Prevention - الذكاء الاصطناعي منع التحيز

المنع الاستباقي للتحيزات في أنظمة الذكاء الاصطناعي، بما في ذلك معالجة التحيزات في جمع البيانات والمعالجة المسبقة وتصميم الخوارزميات، وتنفيذ تدابير لمنع دمج التحيزات في تقنيات الذكاء الاصطناعي، لضمان أنظمة ذكاء اصطناعي عادلة وغير متحيزة ومنصفة.

119. AI Crisis Management - الذكاء الاصطناعي لإدارة الأزمات

تطوير خطط واستراتيجيات الطوارئ لمعالجة الأزمات أو حالات الطوارئ المحتملة المتعلقة بتقنيات الذكاء الاصطناعي، بما في ذلك قضايا مثل انتهاكات البيانات أو فشل النظام أو التحيزات أو إساءة استخدام تقنيات الذكاء الاصطناعي، وتنفيذ تدابير للتخفيف من المخاطر وإدارة الأزمات بشكل فعال.

120. AI Adaptive Governance - الذكاء الاصطناعي الحوكمة التكيفية

الاعتراف بأن تقنيات الذكاء الاصطناعي وتأثيراتها المجتمعية تتطور باستمرار، والحاجة إلى آليات حوكمة تكيفية يمكنها الاستجابة بمرونة للظروف المتغيرة والمخاطر الناشئة والاعتبارات الأخلاقية المتطورة المتعلقة بتقنيات الذكاء الاصطناعي.

121. AI Privacy Protection - حماية الخصوصية بالذكاء الاصطناعي

حماية حقوق الخصوصية والبيانات الشخصية في سياق تقنيات الذكاء الاصطناعي، بما في ذلك ضمان الامتثال لقوانين حماية البيانات ذات الصلة، وتنفيذ تدابير قوية لخصوصية البيانات، والحماية من الوصول غير المصرح به أو إساءة استخدام البيانات الشخصية في أنظمة الذكاء الاصطناعي.

122. AI Explainability and Interpretability - الذكاء الاصطناعي قابلية الشرح وقابلية التفسير

الحاجة إلى أن تكون أنظمة الذكاء الاصطناعي قابلة للتفسير، مما يسمح للمستخدمين وأصحاب المصلحة بفهم كيفية اتخاذ تقنيات الذكاء الاصطناعي للقرارات، والخوارزميات الأساسية، والسبب الكامن وراء مخرجاتها، لتعزيز الثقة والمساءلة والشفافية في أنظمة الذكاء الاصطناعي.

123. AI Security and Resilience - أمن الذكاء الاصطناعي والمرونة

تنفيذ تدابير أمنية قوية في أنظمة الذكاء الاصطناعي، بما في ذلك الحماية من تهديدات الأمن السيبراني، وضمان سلامة البيانات وسريتها، وبناء المرونة في مواجهة الهجمات المحتملة أو فشل النظام، للحماية من المخاطر ونقاط الضعف المرتبطة بتقنيات الذكاء الاصطناعي.

124. AI Compliance and Standards - الامتثال والمعايير الخاصة بالذكاء الاصطناعي

الالتزام باللوائح والمعايير وأفضل الممارسات ذات الصلة في تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك المبادئ التوجيهية الأخلاقية والمعايير الفنية والمتطلبات القانونية، لضمان تطوير واستخدام الذكاء الاصطناعي بشكل مسؤول ومتوافق.

125. AI Bias Mitigation - تخفيف تحيز الذكاء الاصطناعي

التخفيف النشط من التحيزات في تقنيات الذكاء الاصطناعي، بما في ذلك المراقبة المنتظمة والتقييم وتخفيف التحيزات في البيانات والخوارزميات وعمليات صنع القرار، لضمان أن أنظمة الذكاء الاصطناعي لا تؤدي إلى إدامة النتائج التمييزية أو المتحيزة، وتعزيز العدالة والإنصاف.

126. AI Governance Frameworks - أطار حوكمة الذكاء الاصطناعي

إنشاء أطار حوكمة شاملة تشمل السياسات والمبادئ التوجيهية واللوائح والاعتبارات الأخلاقية المتعلقة بتقنيات الذكاء الاصطناعي، مما يوفر نهجًا منظمًا لتطوير الذكاء الاصطناعي ونشره واستخدامه بشكل مسؤول، وضمان الامتثال للمبادئ والمعايير ذات الصلة.

127. AI Risk Assessment - تقييم مخاطر الذكاء الاصطناعي

تقييم المخاطر المحتملة المرتبطة بتقنيات الذكاء الاصطناعي، بما في ذلك المخاطر الأخلاقية والاجتماعية والقانونية والاقتصادية والتكنولوجية، وتنفيذ تدابير للتخفيف من المخاطر المحددة، بما في ذلك استراتيجيات تخفيف المخاطر وآليات المراقبة والتقييم، لتقليل الأضرار المحتملة وضمان الذكاء الاصطناعي المسؤول.

128. AI Public Engagement - الذكاء الاصطناعي في المشاركة العامة

إشراك الجمهور في تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك التماس المدخلات العامة، ودمج القيم ووجهات النظر العامة، وتعزيز ثقة الجمهور، لضمان تطوير تقنيات الذكاء الاصطناعي واستخدامها بطريقة تتماشى مع الاحتياجات المجتمعية. والقيم والتطلعات.

129. AI Governance Monitoring and Evaluation - رصد وتقييم حوكمة الذكاء الاصطناعي

المراقبة والتقييم المستمر لآليات وسياسات ولوائح حوكمة الذكاء الاصطناعي لضمان فعاليتها وتحديد مجالات التحسين والتكيف مع الاعتبارات التكنولوجية والمجتمعية والأخلاقية المتغيرة المتعلقة بتقنيات الذكاء الاصطناعي.

130. AI Compliance Audits - عمليات تدقيق الامتثال للذكاء الاصطناعي

إجراء عمليات تدقيق منتظمة لتقييم الامتثال لآليات وسياسات ولوائح حوكمة الذكاء الاصطناعي ذات الصلة، بما في ذلك تقييم الالتزام بالمبادئ الأخلاقية والمعايير الفنية والمتطلبات القانونية، لضمان الاستخدام المسؤول والمتوافق لتقنيات الذكاء الاصطناعي.

131. AI Accountability Mechanisms - آليات مساءلة الذكاء الاصطناعي

إنشاء آليات لمساءلة أصحاب المصلحة عن تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك أطر المساءلة وآليات الإبلاغ وتدابير الإنفاذ، لضمان ممارسات مسؤولة وأخلاقية في مجال الذكاء الاصطناعي، ومعالجة أي انتهاكات.

132. AI Governance Reporting and Transparency - تقارير حوكمة الذكاء الاصطناعي والشفافية

الإبلاغ المنتظم والشفافية عن آليات وسياسات وممارسات حوكمة الذكاء الاصطناعي، بما في ذلك الكشف عن المعلومات حول أنظمة الذكاء الاصطناعي ووظائفها وتأثيراتها المجتمعية، لتمكين المساءلة والثقة واتخاذ القرارات المستنيرة من قبل أصحاب المصلحة.

133. AI Regulatory Frameworks - الأطر التنظيمية للذكاء الاصطناعي

تطوير الإطارات التنظيمية التي تحكم تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك القوانين والسياسات واللوائح التي تتناول الجوانب الأخلاقية والقانونية والاجتماعية والتكنولوجية للذكاء الاصطناعي، لضمان الاستخدام المسؤول والمتوافق لتقنيات الذكاء الاصطناعي.

134. AI Compliance Certification - شهادة الامتثال لمنظمة العفو الدولية

إنشاء آليات إصدار الشهادات التي تقيم مدى امتثال تقنيات الذكاء الاصطناعي لآليات الحوكمة ذات الصلة والمبادئ الأخلاقية والمعايير الفنية، مما يوفر وسيلة للتحقق من ممارسات الذكاء الاصطناعي المسؤولة والأخلاقية وتعزيز الشفافية والثقة.

135. AI Governance Enforcement - إنفاذ حوكمة الذكاء الاصطناعي

إنفاذ آليات وسياسات ولوائح حوكمة الذكاء الاصطناعي من خلال التدابير القانونية والإدارية والتنظيمية المناسبة، بما في ذلك العقوبات والغرامات والإجراءات القانونية ضد المخالفين، لضمان الامتثال لممارسات الذكاء الاصطناعي المسؤولة والأخلاقية وتعزيز المساءلة.

136. AI Education and Training - التعليم والتدريب في مجال الذكاء الاصطناعي

توفير برامج التعليم والتدريب لأصحاب المصلحة المشاركين في تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك ممارسي الذكاء الاصطناعي وواضعي السياسات والمنظمين والمستخدمين، لتعزيز فهمهم لتقنيات الذكاء الاصطناعي وآثارها الأخلاقية وأفضل الممارسات المسؤولة في تطوير واستخدام الذكاء الاصطناعي.

137. Unsupervised education

يقوم التعلم غير الخاضع للرقابة بتدريب خوارزميات التعلم الآلي على بيانات بدون تسميات، والمعروفة باسم البيانات غير المنظمة.

138. AI Ethical Considerations - الاعتبارات الأخلاقية للذكاء الاصطناعي

النظر في الآثار الأخلاقية في تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك القضايا المتعلقة بالعدالة والمساءلة والشفافية والتحيز والخصوصية والاستقلالية والتأثيرات المجتمعية، لضمان تطوير تقنيات الذكاء الاصطناعي واستخدامها بطريقة تتوافق مع المبادئ والقيم الأخلاقية.

139. Expert system - نظام خبير

الأنظمة الخبيرة هي أنظمة الذكاء الاصطناعي المستخدمة لمحاكاة حكم أو سلوك خبير بشري.

140. AI Policy Advocacy - الدعوة لسياسة الذكاء الاصطناعي

الدعوة للسياسات واللوائح والمعايير التي تعزز تطوير الذكاء الاصطناعي ونشره واستخدامه بشكل مسؤول وأخلاقي، بما في ذلك المشاركة في مناقشات السياسات، وتقديم مدخلات بشأن المبادرات التنظيمية، وتعزيز اعتماد آليات الحوكمة التي تضمن ممارسات الذكاء الاصطناعي المسؤولة والخاضعة للمساءلة.

141. AI Ethics Committees - لجان أخلاقيات الذكاء الاصطناعي

إنشاء لجان أخلاقيات مستقلة أو مجالس مراجعة لتقديم التوجيه والإشراف والتقييم لتقنيات الذكاء الاصطناعي وآثارها الأخلاقية، بما في ذلك مراجعة خطط تطوير الذكاء الاصطناعي، وإجراء تقييمات أخلاقية، وتقديم توصيات لممارسات الذكاء الاصطناعي المسؤولة والأخلاقية.

142. Multimedia artificial intelligence

يمكن لأنظمة الذكاء الاصطناعي متعددة الوسائط التعامل مع المدخلات وإنتاج المخرجات في عدة وسائط. يمكن للأنظمة متعددة الوسائط التعامل مع أي مجموعة من الصور أو الفيديو أو النص أو الصوت، بدلاً من النص فقط.

143. AI Human-Centric Approach - نهج الذكاء الاصطناعي المرتكز على الإنسان

اعتماد نهج يركز على الإنسان في تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي، مما يضمن أن فوائد تقنيات الذكاء الاصطناعي تتماشى مع القيم والاحتياجات والتطلعات البشرية، وأن تقنيات الذكاء الاصطناعي يتم تطويرها واستخدامها بطريقة تحترم كرامة الإنسان، وتعزز الرفاهية، وتدعم حقوق الإنسان.

144. Speech recognition - التعرف على الكلام

 التعرف على الكلام يقوم بتحويل اللغة المنطوقة إلى نص باستخدام الذكاء الاصطناعي.

145. AI Global Cooperation - التعاون العالمي في مجال الذكاء الاصطناعي

تعزيز التعاون الدولي والتآزر بين أصحاب المصلحة، بما في ذلك الحكومات والمنظمات والخبراء، لمواجهة التحديات والآثار العالمية لتقنيات الذكاء الاصطناعي، بما في ذلك الجوانب الأخلاقية والقانونية والاجتماعية والتكنولوجية، ووضع معايير ومبادئ توجيهية مشتركة وأفضل الممارسات. ممارسات تطوير واستخدام الذكاء الاصطناعي بشكل مسؤول وأخلاقي.

146. AI Technology Transfer - نقل تكنولوجيا الذكاء الاصطناعي

النقل المسؤول لتقنيات الذكاء الاصطناعي، بما في ذلك المعرفة والمهارات والقدرات، لضمان استخدام تقنيات الذكاء الاصطناعي بطريقة تتوافق مع المبادئ الأخلاقية وآليات الحوكمة والمتطلبات التنظيمية، عند نقلها عبر منظمات أو بلدان أو سياقات مختلفة.

147. AI Public Policy - السياسة العامة لمنظمة العفو الدولية

تطوير السياسات العامة التي تعالج الآثار الأخلاقية والقانونية والاجتماعية والتكنولوجية لتقنيات الذكاء الاصطناعي، بما في ذلك السياسات المتعلقة بخصوصية البيانات، وتخفيف التحيز، والشفافية، والمساءلة، والحوكمة، لضمان تطوير الذكاء الاصطناعي ونشره واستخدامه بطريقة مسؤولة وخاضعة للمساءلة.

148. AI Trustworthiness - الجدارة بالثقة لمنظمة العفو الدولية

بناء الثقة في تقنيات الذكاء الاصطناعي من خلال تنفيذ تدابير مثل عمليات التدقيق والاعتماد والتحقق من قبل طرف ثالث، لضمان تطوير تقنيات الذكاء الاصطناعي واستخدامها بطريقة جديرة بالثقة، مع الالتزام بالمبادئ الأخلاقية وأفضل الممارسات، والمتطلبات التنظيمية.

149. AI User Empowerment - تمكين مستخدم الذكاء الاصطناعي

تمكين مستخدمي الذكاء الاصطناعي بالمعرفة والمهارات والأدوات اللازمة لفهم تقنيات الذكاء الاصطناعي وتقييمها والتفاعل معها، بما في ذلك توفير واجهات سهلة الاستخدام وتفسيرات واضحة لوظائف الذكاء الاصطناعي والوصول إلى المعلومات حول استخدام البيانات وعمليات صنع القرار. لضمان قدرة المستخدمين على اتخاذ قرارات مستنيرة والتحكم في تفاعلاتهم مع تقنيات الذكاء الاصطناعي.

150. AI Inclusivity - شمولية الذكاء الاصطناعي

تعزيز الشمولية في تطوير ونشر واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك معالجة التحيزات والتمييز وعدم المساواة في أنظمة الذكاء الاصطناعي، وضمان إمكانية الوصول إلى تقنيات الذكاء الاصطناعي ومفيدة لجميع الأفراد، بغض النظر عن جنسهم أو عرقهم أو عمرهم أو الدين أو الإعاقة أو أي خاصية أخرى، لضمان نتائج عادلة ومنصفة.

151. AI Accountability - مساءلة الذكاء الاصطناعي

إنشاء آليات لمساءلة المطورين والمستخدمين وأصحاب المصلحة الآخرين عن التطوير الأخلاقي ونشر واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك آليات الإبلاغ والتحقيق والتعويض عن أي أضرار ناجمة عن تقنيات الذكاء الاصطناعي، لضمان أن الممارسات المسؤولة يتم التمسك بها، ويتم الحفاظ على المساءلة.

152. AI Governance Mechanisms - آليات حوكمة الذكاء الاصطناعي

تطوير وتنفيذ آليات الحوكمة، بما في ذلك السياسات واللوائح والمعايير والمبادئ التوجيهية، لضمان تطوير الذكاء الاصطناعي ونشره واستخدامه بشكل مسؤول وأخلاقي، ولمعالجة المخاطر والتحديات المحتملة المرتبطة بتقنيات الذكاء الاصطناعي، مثل التحيز والخصوصية والأمن ، والتأثيرات المجتمعية.

153. AI Collaboration - التعاون في مجال الذكاء الاصطناعي

تعزيز التعاون بين أصحاب المصلحة، بما في ذلك الباحثين وواضعي السياسات والصناعة والمجتمع المدني والجمهور، لتعزيز النهج متعددة التخصصات وتبادل المعرفة والجهود المشتركة في مواجهة التحديات الأخلاقية والقانونية والاجتماعية والتكنولوجية لتقنيات الذكاء الاصطناعي، تطوير الحلول التي تعود بالنفع على البشرية جمعاء.

154. AI Human Rights - منظمة العفو الدولية حقوق الإنسان

حماية وتعزيز حقوق الإنسان في سياق تقنيات الذكاء الاصطناعي، بما في ذلك الخصوصية وحرية التعبير وعدم التمييز والحق في الوصول إلى المعلومات، لضمان تطوير تقنيات الذكاء الاصطناعي واستخدامها بطريقة تدعم حقوق الإنسان وتحترم حقوق الإنسان.

155. AI Response to Disinformation - استجابة الذكاء الاصطناعي للمعلومات المضللة

تطوير تقنيات الذكاء الاصطناعي واستراتيجياته للتصدي لانتشار المعلومات الخاطئة والمضللة، بما في ذلك الأخبار المزيفة والتزييف العميق والاستخدام الضار للذكاء الاصطناعي، لضمان تطوير تقنيات الذكاء الاصطناعي واستخدامها بشكل مسؤول، ولا تساهم في إحداث تأثيرات ضارة على المجتمع والديمقراطية، والخطاب العام.

156. AI Disaster Preparedness - الذكاء الاصطناعي التأهب للكوارث

دمج تقنيات الذكاء الاصطناعي في جهود التأهب والاستجابة للكوارث، بما في ذلك أنظمة الإنذار المبكر، وتقييم المخاطر، وإدارة الكوارث، والتعافي بعد الكوارث، لتحسين عملية صنع القرار، والحد من الخسائر البشرية، والتخفيف من تأثير الكوارث الطبيعية وحالات الطوارئ الأخرى.

157. AI for Social Good - الذكاء الاصطناعي من أجل الصالح الاجتماعي

تشجيع استخدام تقنيات الذكاء الاصطناعي لتحقيق الصالح الاجتماعي، بما في ذلك معالجة التحديات العالمية مثل الفقر والجوع والتفاوتات الصحية والتعليم وتغير المناخ والاستدامة، لتسخير إمكانات الذكاء الاصطناعي لتحقيق تأثير مجتمعي إيجابي ولضمان مساهمة تقنيات الذكاء الاصطناعي إلى رفاهية جميع الأفراد والمجتمعات.

158. AI Data Ethics - أخلاقيات بيانات الذكاء الاصطناعي

النظر في الآثار الأخلاقية المتعلقة بالبيانات في تطوير واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك خصوصية البيانات، والموافقة، والملكية، والتحيز، والجودة، لضمان تطوير تقنيات الذكاء الاصطناعي واستخدامها بطريقة مسؤولة وأخلاقية، مع احترام الأفراد.

159. AI and Cybersecurity - الذكاء الاصطناعي والأمن

دمج تقنيات الذكاء الاصطناعي في جهود الأمن السيبراني، بما في ذلك اكتشاف التهديدات والوقاية منها والاستجابة لها، لتعزيز تدابير الأمن والحماية من التهديدات، مع ضمان تطوير تقنيات الذكاء الاصطناعي واستخدامها بشكل مسؤول لتجنب المخاطر والأضرار المحتملة.

160. AI for Ethical Decision-making - الذكاء الاصطناعي في اتخاذ القرارات الأخلاقية

تطوير تقنيات واستراتيجيات الذكاء الاصطناعي التي تدعم اتخاذ القرارات الأخلاقية، بما في ذلك دمج الأطار والمبادئ والمبادئ التوجيهية الأخلاقية في خوارزميات الذكاء الاصطناعي، لضمان أن تقنيات الذكاء الاصطناعي مصممة لاتخاذ قرارات أخلاقية تتماشى مع القيم الإنسانية والمعايير الأخلاقية، ولتجنب العواقب أو التحيزات غير المقصودة في عملية صنع القرار في مجال الذكاء الاصطناعي.

161. Synthetic data - البيانات الاصطناعية

البيانات الاصطناعية هي معلومات يتم إنشاؤها بواسطة الكمبيوتر لاختبار نماذج الذكاء الاصطناعي وتدريبها. تحتاج نماذج الذكاء الاصطناعي الكبيرة إلى كميات كبيرة من البيانات للتدريب عليها، والتي يتم إنشاؤها تقليديًا في العالم الحقيقي.

162. Technological uniqueness - التفرد التكنولوجي

التفرد التكنولوجي. يصف التفرد نقطة في المستقبل يصبح فيها الذكاء الاصطناعي المتقدم أكثر ذكاءً من البشر ويصبح النمو التكنولوجي خارج نطاق السيطرة.

163. AI Ethical Impact Assessments - تقييمات الأثر الأخلاقي للذكاء الاصطناعي

إجراء تقييمات الأثر الأخلاقي لتقنيات الذكاء الاصطناعي، بما في ذلك تقييم الآثار الأخلاقية والاجتماعية والمجتمعية المحتملة لتقنيات الذكاء الاصطناعي طوال دورة حياتها، بدءًا من التطوير وحتى النشر والاستخدام، لتحديد ومعالجة المخاوف الأخلاقية وضمان تطوير الذكاء الاصطناعي بشكل مسؤول وأخلاقي.

164. AI Robustness and Safety - الذكاء الاصطناعي المتانة والسلامة

التركيز على قوة وسلامة تقنيات الذكاء الاصطناعي، بما في ذلك ضمان تصميم أنظمة الذكاء الاصطناعي واختبارها والتحقق من صحتها لتكون موثوقة وآمنة ومرنة ضد حالات الفشل المحتملة أو نقاط الضعف أو الهجمات العدائية، لتقليل المخاطر وضمان الذكاء الاصطناعي الآمن والموثوق.

165. AI Human in the Loop - الذكاء الاصطناعي الإنسان في الحلقة

دمج الرقابة البشرية والتحكم في تقنيات الذكاء الاصطناعي، بما في ذلك إشراك المدخلات البشرية في عمليات صنع القرار، والسماح بالتدخل البشري وتفسير مخرجات الذكاء الاصطناعي، وضمان بقاء البشر مسؤولين وخاضعين للمساءلة عن الإجراءات والقرارات التي تسهلها تقنيات الذكاء الاصطناعي، تجنب الاعتماد غير المبرر على الذكاء الاصطناعي والحفاظ على الفاعلية البشرية.

166. AI Ethical Review Boards - مجالس المراجعة الأخلاقية لمنظمة العفو الدولية

إنشاء مجالس مراجعة أخلاقية مستقلة ومتعددة التخصصات لتقنيات الذكاء الاصطناعي، تتألف من خبراء من مختلف المجالات، بما في ذلك الأخلاق والقانون والعلوم الاجتماعية والتكنولوجيا وممثلي المستخدمين، لتوفير التقييم النقدي والتوجيه والإشراف على تطوير الذكاء الاصطناعي ونشره و الاستخدام، لضمان الممارسات المسؤولة والأخلاقية.

167. AI Ethical Leadership - الذكاء الاصطناعي القيادة الأخلاقية

تعزيز القيادة الأخلاقية في تطوير واستخدام تقنيات الذكاء الاصطناعي، بما في ذلك تعزيز ثقافة الابتكار المسؤول، واتخاذ القرارات الأخلاقية، والمساءلة على جميع مستويات تطوير الذكاء الاصطناعي واستخدامه، وتشجيع القادة على إعطاء الأولوية للاعتبارات الأخلاقية والتأثير المجتمعي على المدى القصير.

168. AI International Collaboration - التعاون الدولي في مجال الذكاء الاصطناعي

تعزيز التعاون الدولي في مواجهة التحديات الأخلاقية والقانونية والاجتماعية والتكنولوجية لتقنيات الذكاء الاصطناعي، بما في ذلك تبادل المعرفة وأفضل الممارسات والخبرات، ووضع معايير ومبادئ توجيهية عالمية لتطوير الذكاء الاصطناعي ونشره واستخدامه بشكل مسؤول. ضمان اتباع نهج منسق وتعاوني تجاه تقنيات الذكاء الاصطناعي المسؤولة والأخلاقية على المستوى العالمي.

 

تعليقات



حجم الخط
+
16
-
تباعد السطور
+
2
-