أدوات الوصول

Skip to main content

المدونة

ابق على اطلاع بأخبارنا الجديدة!

يمكن لشخصين الاحتفاظ بسر، إلا إذا كان أحدهما الذكاء الاصطناعي
48e5f74ef106437d18aaaadfddcbeacc?s=96&d=mm&r=g
Maraam Jurnazi | 19/03/2025 |
blog ar ai 1da3cf14

1. مقدمة: الذكاء الاصطناعي التوليدي … شريكك الرقمي الذكي في العمل

قد لا أمتلك قوى خارقة، ولكن على الأرجح أنك تقرأ هذا المقال الآن على جهازك، وأن إحدى علامات التبويب العديدة المفتوحة، هي أداة ذكاء اصطناعي توليدي؟

الذكاء الاصطناعي التوليدي (Generative AI) هو تقنية قوية قادرة على معالجة النصوص وإنشاء استجابات بناءً عليها. يمكن أن تتراوح هذه الاستجابات من نصوص، مثل رسائل البريد الإلكتروني أو التقارير، إلى صور أو حتى مقاطع فيديو مع نماذج أكثر تقدمًا.

بالرغم من انبهار الكثير منا بقدرات هذه الأدوات المذهلة، غالبًا ما نغفل جانبًا حيويًا، ألا وهو اللوائح التنظيمية. فمع التطورات التشريعية في جميع أنحاء العالم، وعلى رأسها تشريعات الذكاء الاصطناعي للاتحاد الأوروبي، فإن فهم وإدارة مخاطر الذكاء الاصطناعي لم يعد أمرًا اختياريًا، بل أصبح ضرورة قانونية.

في هذا المقال، سنركز على ChatGPT، وهي أداة ذكاء اصطناعي توليدي واسعة الانتشار من تطوير OpenAI، وقد اكتسبت شعبية هائلة في مختلف المجالات.

2. ما سر نجاح ChatGPT في انجاز مهام العمل؟

هل تساءلت يومًا كيف يتعامل ChatGPT مع عملك بشكل أسرع منك، على الرغم من سنوات خبرتك؟

أدوات الذكاء الاصطناعي، مثل ChatGPT، تشبه السيارات، وتعتمد على نماذج تعمل بمثابة “محركاتها”. يتم تدريب هذه المحركات باستخدام مجموعات بيانات ضخمة وتقنيات التعلم الآلي، مما يمكنها من التعرف على الأنماط المختلفة في المدخلات البشرية وإنشاء مخرجات تعتمد بشكل كامل على الاحتمالات.

عندما نقول “الاحتمالات”، فإننا نعني أن نماذج الذكاء الاصطناعي تتوقع الاختيار الأكثر ترجيحًا لإكمال الجملة، بناءً على الأنماط التي تدربت عليها مسبقًا. على سبيل المثال، إذا بدأت جملة بـ “بالأمس، اشتريت قميصًا من…”، فمن المرجح أن ينهيها ChatGPT بـ “متجر ملابس” بدلاً من “جزار”. السبب؟ لقد ترسخ في ذهنه أن القمصان ترتبط عمومًا بمتاجر الملابس.لا يتوقف التعرف على الأنماط هذا عند العبارات البسيطة، بل يمتد إلى اللغة العامة. تخيل هذه النماذج على أنها طالب مجتهد للغاية يستوعب كل معلومة تُعرض عليه، سواء كانت ذات صلة أم لا. يتم تدريب نماذج الذكاء الاصطناعي على مجموعات بيانات ضخمة تم تجميعها من الإنترنت والكتب ومستودعات التعليمات البرمجية وتفاعلات المستخدمين. يمكن أن تتضمن مجموعات البيانات هذه كل شيء من مواقع الويب العامة والتعليمات البرمجية مفتوحة المصدر إلى الكتب الرقمية والمحتوى الذي ينشئه المستخدمون.

AD 4nXc3WtAS84jrS53Sy9amC49p43ujk33EHIamO3966yErGzN9jti3dU5VZnwBxeisIM542RS1ceyqyBzvsFL6ZE18KOsQ6kBXbjlDJxohVCrl636gayYJj9xtqExELXJbMLdllOoK7A?key=xjxftvks0UCUy Mdc9bwOerS
شكل 1. مثال على تنبؤات الاحتمالات لنموذج BERT AI. المصدر:AI Explorables

ولكن ماذا يحدث عندما نتحدث مع ChatGPT؟

في حين أن هذه البيانات تمكّن مستخدمي الذكاء الاصطناعي من تحقيق نتائج مبهرة، إلا أنها تعني أيضًا أن أي معلومات حساسة يتم ادخالها يمكن أن تصبح عن غير قصد جزءًا من تجربة تعلم النموذج، مما قد يؤدي إلى عرضها على للآخرين أو يؤثر على استجابات النموذج في المستقبل بطرق غير متوقعة.

ما المخاطر المترتبة على ذلك؟ أي بيانات حساسة تشاركها، شخصية أو متعلقة بمؤسستك، يمكن استخدامها لتحسين النموذج، مما يثير مخاوف بشأن أمن البيانات وسريتها.

3. قضية سامسونج: درس في أمن الذكاء الاصطناعي

هذا هو بالضبط ما حدث داخل شركة سامسونج. حيث قام أحد مهندسيها بإستخدام  ChatGPT لمراجعة التعليمات البرمجية المصدر لأشباه الموصلات عن طريق إدخالها لأداة الذكاء الاصطناعي ChatGPT في صورة نصية.

النتيجة؟ حادثة تسريب بيانات كبيرة. حيث تم الكشف عن بيانات حساسة للشركة عن غير قصد، مما دفع سامسونج إلى تطبيق سياسات أكثر صرامة لإستخدام الذكاء الاصطناعي، بما في ذلك وضع حد لإدخال 1024 بايت – لمساعدتك على تخيّل هذا الرقم البرمجي، 1024 بايت هو تقريبًا طول فقرة نصية قصيرة، بالكاد تكفي لرسالة بريد إلكتروني مفصلة للعميل، ناهيك عن مراجعة التعليمات البرمجية المعقدة – وهو، بطبيعة الحال، غير كافٍ!

ولم تقتصر المشكلة على ذلك. فقد تبع ذلك حادثان داخليان آخران في الشركة نفسها: الأولى، استخدام موظف لـ ChatGPT لإنشاء محاضر اجتماعات من مناقشة داخلية تضمنت معلومات حساسة؛ والأخرى قيام موظف بتحميل رمز برنامج حساس بهدف تحسينه. وقد دفعت هذه الحوادث الشركة إلى التفكير في حظر أدوات الذكاء الاصطناعي التوليدي في مايو 2023.

استجابة لهذه المخاوف، أعلنت سامسونج عن خطط لتطوير أدوات الذكاء الاصطناعي الخاصة بها للاستخدام الداخلي، مما يدل على أهمية الحفاظ على البيانات الحساسة داخل حدود آمنة.

4. الاستخدام الذكي للذكاء الاصطناعي: بادر، ولا تكتف بالرَد

إذن، كيف يمكننا تجنب الوقوع في الخطأ؟ الجواب أبسط مما تظن.

إذا كنت من صنَاع القرار داخل مؤسستك
في حال كان أعضاء فريقك يستخدمون بالفعل أدوات الذكاء الاصطناعي التوليدي، مثل ChatGPT، لمساعدتهم في مهام عملهم اليومية، فأنت لست وحدك في هذا المضمار.فوفقًا لتقرير اتجاهات البيانات والذكاء الاصطناعي لعام 2024، يعتقد 84٪ من الأشخاص أن الذكاء الاصطناعي التوليدي يمكن أن يساعد المؤسسات في الوصول إلى رؤى أسرع، لذلك، حان الوقت  لوضع سياسة واضحة لاستخدام الذكاء الاصطناعي.

تكتسب سياسة استخدام الذكاء الاصطناعي أهمية قصوى في تحديد المسؤوليات والحد من المخاطر القانونية المرتبطة بهذه التقنية. ورغم أنها لا تضمن تحقيق الفوز في النزاعات القانونية، إلا أنها ترسخ إطارًا واضحًا للاستخدام المسؤول للذكاء الاصطناعي وتقدّم دليلًا على حُسن النية في حال وقوع أي انتهاك.

يجب أن تتناول سياسة استخدام الذكاء الاصطناعي الفعالة الخطوات الرئيسية التالية:

تحديد أدوات الذكاء الاصطناعي

تتمثل الخطوة الأولى نحو سياسة ناجحة في تحديد أدوات الذكاء الاصطناعي المعتمدة للاستخدام داخل المؤسسة لإنجاز مهام عمل محددة. حيث يمكننا تقنين الاستخدام على أدوات ذكاء اصطناعي معينة لا تخزن بيانات المستخدم داخل ذاكرة الأدوات.

من وجهة نظر المستخدم، تندرج أدوات الذكاء الاصطناعي عمومًا تحت نوعين، أدوات المستهلك وأدوات المؤسسات. عادةً ما تفرض أدوات الذكاء الاصطناعي على مستوى المؤسسات، مثل ChatGPT Enterprise و Claude for Teams، سياسات أمنية أكثر صرامة على مستخدميها، وتعطي الأولوية للخصوصية من خلال ضمان عدم تخزين المطالبات (مدخلات المستخدم). قبل اعتماد أي أداة ذكاء اصطناعي، من الضروري مراجعة شروط استخدامها لفهم ممارسات معالجة البيانات الخاصة بها.

تحديد مهام الذكاء الاصطناعي

بمجرد تحديد الأدوات المعتمدة، من الضروري تحديد مهام العمل التي يمكن للذكاء الاصطناعي تنفيذها داخل المؤسسة. يجب أن تتماشى هذه المهام مع أهداف العمل مع مراعاة الحدود الأخلاقية أيضًا. يمكن استخدام الذكاء الاصطناعي في تحليل البيانات وإنشاء المحتوى ودعم العملاء وأتمتة العمليات. ومع ذلك، يجب تجنب اتخاذ القرارات التي تنطوي على بيانات حساسة، مثل الاستشارات القانونية أو المالية أو الطبية داخل المؤسسة.

عملية المراقبة

تبدأ مرحلة المراقبة بمجرد تحديد الأدوات والمهام المسموح بها بوضوح. من الضروري تتبع استخدام الذكاء الاصطناعي بانتظام لضمان الامتثال الكامل للسياسة. على سبيل المثال، يمكن للمسؤولين مراقبة المهام التي يتم استخدام الذكاء الاصطناعي من أجلها وما إذا كان يتم إساءة استخدام أي أدوات. غالبًا ما تقدم أدوات الذكاء الاصطناعي للمؤسسات حسابات المسؤولين التي تسمح للمسؤولين بمراقبة تفاعلات الذكاء الاصطناعي والتماشي مع السياسات وتقييد الوصول غير المصرح به. تجعل هذه السيطرة المركزية التتبع أكثر كفاءة وسلاسة، مما يضمن استخدام الذكاء الاصطناعي بشكل مناسب.

الاستجابة للحوادث

على الرغم من التدابير الوقائية، لا تزال الحوادث واردة الحدوث. وهذا يجعل وضع بروتوكول واضح للاستجابة لحوادث الكشف عن البيانات المتعلقة بالذكاء الاصطناعي أو الانتهاكات الأخلاقية أمرًا ضروريًا. ستساعد خطة الاستجابة للحوادث القوية في التخفيف من أي مخاطر مرتبطة بسوء استخدام الذكاء الاصطناعي. بالإمكان الرجوع إلى الإطار الوطني لإدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتقنية (NIST) للحصول على مزيد من الأفكار، والمتاح باللغتين العربية والإنجليزية.

في حين أن إنشاء مثل هذه السياسة وتطبيقها قد يستغرق بعض الوقت، إلا أنه أقل تكلفة بكثير من التعامل مع تداعيات حادث أمني.

الهدف هو المبادرة والتخطيط، لا مجرد الاكتفاء برد الفعل. فكر في إطلاق مشروع داخلي بعنوان “الذكاء الاصطناعي النزيه” حيث يجتمع أصحاب المصلحة معًا لمناقشة البيانات الحساسة التي يجب أن تظل محمية في العمل المؤسسي. سيؤدي فهم هذه البيانات ومعالجتها إلى سيناريوهات قد لا يكون استخدام الذكاء الاصطناعي في العمل هو الأفضل، والذي سيكون نقطة البداية لسياساتك.وجدت دراسة استقصائية أجرتها Gartner حول الذكاء الاصطناعي في المؤسسات لعام 2023 أن 53٪ فقط من المؤسسات انتقلت من تجربة الذكاء الاصطناعي إلى دمجه في عملياتها التجارية. يُظهر حماس هذا الرقم بوضوح أن المؤسسات لم تنضج بعد في ممارسات إدارة البيانات والحوكمة الخاصة بها، وندعوك أنت ومؤسستك إلى أن تكونوا نقطة الانطلاق في هذه الممارسات الفعالة!

إذا كنتَ موظفَا في مؤسستك

لنواجه الأمر—يمكن لأدوات الذكاء الاصطناعي مثل ChatGPT أن تعزز كفاءتنا وإبداعنا بشكل كبير. بدلاً من التردد، دعونا نتبنى الذكاء الاصطناعي كجزء قيم من سير عملنا، وندمجه بشكل احترافي ومسؤول!

في المرة القادمة التي يساعدك فيها الذكاء الاصطناعي في إعادة صياغة تقرير أو صياغة محتوى أو إنشاء رؤى، لا تتردد في الاعتراف بدوره. على سبيل المثال، يمكنك أن تقول:

“ساعدت أدوات الذكاء الاصطناعي في البحث وتنظيم المحتوى وصياغة هذا المستند. ومع ذلك، تمت مراجعة جميع المعلومات وتحريرها والتحقق منها بعناية من قبل [اسم المؤلف/اسم الفريق] لضمان الدقة والموثوقية.”

يشجع هذا النهج على استخدام الذكاء الاصطناعي بشكل مسؤول ويضع مثالًا إيجابيًا لزملائك.

هل تستخدم أدوات ذكاء اصطناعي معينة لتحليل البيانات والتوصل إلى نتائج قيّمة؟ شاركها خلال اجتماعك القادم! إن القيام بذلك يعزز الشفافية ويوضح كيف يمكن أن يكون الذكاء الاصطناعي أداة تعاون رائعة عند استخدامه بمسؤولية.

ميزة أخرى جيدة لأدوات الذكاء الاصطناعي القائمة على المحادثة مثل Chat GPT هي خيار “المحادثة المؤقتة”. عند تفعيلها، يسمح لك هذا الخيار بعدم تقديم مدخلاتك كبيانات تدريب للنموذج، مما يمنحك مزيدًا من التحكم في خصوصيتك وكيفية استخدام بياناتك.

لتلخيص ذلك، قبل استخدام الذكاء الاصطناعي لأي مهمة، اسأل نفسك هذه الأسئلة:

  • هل تسمح سياسة الذكاء الاصطناعي الخاصة بالمؤسسة بأداء هذه المهمة؟ إذا لم تكن متأكدًا، فاستوضح الأمر مع مديرك.
  • هل يمكنني مشاركة أي بيانات حساسة؟ إذا كان الأمر كذلك، فتأكد من أنها ضرورية للغاية واتخذ خطوات لإخفاء هويتها قدر الإمكان.
  • هل أتعامل مع مخرجات الذكاء الاصطناعي كنقطة انطلاق أم الإجابة النهائية؟ كن حذرًا من “الهلوسات”—يمكن لأدوات الذكاء الاصطناعي مثل ChatGPT أن تنشئ أحيانًا معلومات تبدو معقولة ولكنها قد لا تكون دقيقة. عندما تكون في شك، تحقق من المعلومات وتأكد منها.

5. خاتمة

بينما تستمر تكنولوجيا الذكاء الاصطناعي وأدواته العديدة في التطور بشكل يومي، تقع على عاتقنا مسؤولية التعامل مع استخدامه بحذر ومسؤولية. يمكن أن تساهم أدوات الذكاء الاصطناعي مثل ChatGPT بشكل فعال في تحسين الإنتاجية والإبداع، غير أنها تستلزم أيضًا أخذ جوانب أخرى في الحسبان، وعلى رأسها أمن البيانات والاستخدام الأخلاقي.

تذكر ما قاله بنجامين فرانكلين: “يمكن لشخصين الاحتفاظ بسر إذا كان أحدهما ميتًا”. ولكن ليس على أحد أن يموت للاحتفاظ بسر—فقط كن حذرًا مع الذكاء الاصطناعي!

شارك:

FacebookTwitterLinkedInWhatsAppTelegramViberCopy Link
اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *