منوعات

دراسة تكشف الوجه المخيف للذكاء الاصطناعي

02 أبريل 2022 - 07:30

لا يمكن إنكار الثورة الكبيرة التي أحدثها الذكاء الاصطناعي في مختلف المجالات، ما أسهم في تحسين حياة مليارات الأشخاص حول العالم، وحل العديد من الأزمات، وتجاوز العديد من التحديات والصعاب.

ورغم الفوائد العظيمة الناتجة عن استخدام تكنولوجيا الذكاء الاصطناعي، فإن هناك وجها آخر مخيف ومقلق لهذه التكنولوجيات، يتمثل في المخاطر والصعوبات التي تنتج عن إساءة استخدامها. وقد كشفت العديد من الاختلالات عن مخاطر الانحراف في استعمال تلك التقنية، سواء في التوجه نحو إلغاء الخصوصية، ومخاطر الأمن السيبراني، أو التلاعب بالرأي العام والتحكم فيه، … غير أن آخر ما تم الكشف عنه هو القدرة الهائلة لتلك التكنولوجيا في صناعة أسلحة بيولوجية وكميائية جديدة.

وحسب الجزيرة نت، أعلن فريق بحثي أوروبي أنه يمكن للذكاء الإصطناعي، إذا استخدم عن عمد، أن يصنع عددا كبيرا من الأسلحة البيولوجية والكيميائية الجديدة تمامًا بسهولة كبيرة، والتي يمكن بعد العمل على تطويرها أن تساعد في تغيير خارطة الحرب على هذا الكوكب، الأمر الذي أثار قلق العلماء.

وبحسب دراسة نشرت يوم 7 مارس/آذار الجاري في دورية  “نيتشر ماشين إنتليغنس” (Nature Machine Intelligence) فقد صمم هذا الفريق مولّد جزيئات “ميغاسِن2” (MegaSyn2) وهو عبارة عن خوارزمية تستخدم التعلم الآلي بغرض إيجاد مركبات علاجية جديدة لعلاج الأمراض البشرية.

وتقنية تعلم الآلة أحد فروع الذكاء الاصطناعي التي تهدف لبناء وتطوير خوارزميات تسمح للحواسيب بامتلاك خاصية “التعلم” مثل البشر، أي أن تقوم باستخدام المعلومات المتاحة لاستنتاج قواعد وأحكام عامة، ثم تطبيقها على المعلومات الواردة إليها.

عكس الهدف

في الحالات العادية، تصمم الخوارزمية لتقليل الأضرار ورفع الفائدة، بمعنى أنه بعد أن تُخلّق المركبات الكيميائية في الدورة الأولى للخوارزمية، يتم تنقيحها بالدورة الثانية لتخدم غرض الأمان بشكل أساسي، فلا تكون ضارة للإنسان.

هذا مفهوم بالطبع، وهو المنطق الذي يستخدمه أي باحث لتطوير علاج جديد للحصول على أكبر قدر ممكن من الفائدة، وأقل قدر ممكن من الضرر.

لكن بحسب الدراسة الجديدة، فقد قام الباحثون بعكس هذه الآلية، فتعلمت الخوارزمية أن تفضّل الضرر وتتجنب الفائدة، وفي أقل من 6 ساعات بعد تشغيلها، أنتج نموذجهم 40 ألف جزيء كيميائي يتميز بأنه ضار للجسد البشري.

ويعرف السلاح الكيميائي على أنه أية مادة كيميائية يمكن أن تستخدم للتسبب في ضرر الإنسان حينما توضع في صورة عسكرية (ذخائر أو قنابل أو غيرها) الكلور مثلا يستخدم كسلاح كيميائي حينما يطلق في صورة قنابل تتسبب في تهيج الأنف ومجرى الهواء عند استنشاقها، وتتراكم في الرئتين مسببة الاختناق.

مستقبل الحرب

بالطبع، لا يستهدف الباحثون تخليق أسلحة كيميائية أو بيولوجية، ولكن الورقة البحثية جاءت في سياق سلسلة مؤتمرات “التقارب” التي أسستها الحكومة السويسرية لتناقش في التطورات بعالم الكيمياء والبيولوجيا، والتفكير في الآثار الأمنية المحتملة لمخاطر تلك التطورات.

وبحسب بيان المؤتمر، لم يكن هناك سابقًا نقاش كبير في المجتمع العلمي حول الاستخدام المزدوج لتطبيقات الذكاء الاصطناعي التي تستحدث أدوية جديدة، فمن جانب قد تكون مفيدة، ومن جانب آخر تكون ضارة جدًا.

ويأمل الباحثون أن تساعد تلك البيانات الجديدة في تطوير آليات أفضل لتحجيم الاستخدام المسيء لتطورات الذكاء الاصطناعي، الآن ومستقبلا، في نطاق الحرب الكيميائية.

والواقع أن الجدل حول هذا الموضوع يستحق اهتماما كبيرا يومًا بعد يوم، خاصة في سياق ترتفع فيه معدلات استخدام الأسلحة الكيميائية والبيولوجية حول العالم، ويتوقع بعض المختصين أن استخدام السلاح البيولوجي أو الكيميائي بالحرب الأوكرانية الحالية مسألة وقت.

دعوات لوضع معايير وتشريعات

سبق لمنتدى الدوحة في دورته العشرين المقامة قبل أيام فقط ، خلال جلسة “وعود ومخاطر الذكاء الاصطناعي والتحليلات التي تغذي عمليات اتخاذ القرار” أن دعا إلى ضرورة صياغة سياسات ووضع أطر تشريعية وتنظيمية دولية ووطنية، بغية ضمان عودة هذه التكنولوجيات الناشئة بالنفع على البشرية بأسرها، من أجل الوصول إلى ذكاء اصطناعي يتمحور حول الإنسان ويكون ذا فائدة كبرى للبشر، وليس العكس.

ونظم منتدى الدوحة تحت شعار “التحول إلى عصر جديد”، بمشاركات أبرز القادة والسياسيين وصناع القرار من جميع أنحاء العالم؛ لمناقشة قضايا حيوية بالغة الأهمية، وهي: التحالفات الجيوسياسية، والعلاقات الدولية، والنظام المالي والتنمية الاقتصادية، والدفاع، والأمن السيبراني، والأمن الغذائي، والاستدامة وتغيّر المُناخ.

وأكد الباحث في الذكاء الاصطناعي بمؤسسة “لينكد إن” (LinkedIn) الدكتور أوسوند أوسوبا أهمية تطبيق الذكاء الاصطناعي في جميع المجالات، لكنه شدد في الوقت نفسه على ضرورة أن تضع الحكومات المبادئ والمعايير التي من شأنها أن تحدّ من مخاطر هذه التكنولوجيات وتمنع احتكارها من بعض الشركات.

وقال أوسوبا للجزيرة نت إن مؤسسات الرعاية الصحية والمؤسسات المالية هي الأكثر استفادة من تكنولوجيا الذكاء الاصطناعي، إلا أن كل تكنولوجيا لها مخاوفها، ويجب أن تكون هناك تشريعات مناسبة لتنظيم عمل هذه التكنولوجيا على الأمد البعيد.

وأضاف أن الذكاء الاصطناعي يعمل على جمع البيانات، إلا أن المواهب هي العنصر الأهم في هذه التكنولوجيا، لذلك لا بد من التركيز على مسألة الحوكمة على المستوى العالمي، حتى لا تحتكر بعض الشركات هذه التكنولوجيات.

واعتبر أن المشكلة الكبرى في موضوع وضع التشريعات الخاصة بالذكاء الاصطناعي، هو عدم وجود القدرات الكافية لمتابعة تطورات الذكاء الاصطناعي، لذلك على الحكومات أن تتفق على معايير ومبادئ تستخدم التشريعات بطريقة أكثر حكمة.

بدوره، رأى الممثل الخاص للشؤون التجارية في وزارة الخارجية الأميركية ديلوار سيد، أن السنوات المقبلة ستشهد طفرة في تكنولوجيا الذكاء الاصطناعي لدرجة أن مثل هذه التكنولوجيات سوف تتكلم معنا في كافة المجالات، خاصة أن هذه المنظمة تشهد المزيد من التقدم يوميا.

وشدد على ضرورة التفكير بشكل جدي للاستفادة من الذكاء الاصطناعي، في ظل أطر وتشريعات محددة تضمن لنا الوصول إلى هذه التكنولوجيات وتفادي مخاطرها والمخاوف التي تنتج عنها بصورة مستمرة، خاصة فيما يتعلق باحتكار المواهب.

التشريعات المتعلقة بتكنولوجيا الذكاء الاصطناعي يجب مراقبتها بصورة فعالة ومستمرة، من أجل ضمان الأمن العالمي في ظل ما ينشأ عن هذه التكنولوجيات من أمور تتعارض مع العدالة والشفافية والسلامة.

بينما شددت الباحثة في مؤسسة “ميتا” الدكتور كاثرين بوسكيل على ضرورة أن تركز مسألة التشريعات المحددة لتكنولوجيا الذكاء الاجتماعي على خصوصية البيانات، خاصة في ظل تحديث تطبيقات هذه التكنولوجيات بصورة مستمرة، ولكن مع الأخذ في الاعتبار عدم خسارة هذا التقدم في التكنولوجيا.

وقالت بوسكيل للجزيرة نت إنه في المستقبل سيكون الإجماع على تكنولوجيا الذكاء الاصطناعي وتطويرها بصورة مستمرة، خاصة في ظل شغف المؤسسات حول العالم وتوجهها نحو تحليلات البيانات والخوارزميات التي تعتمد على البيانات كأدوات فعالة لتخفيف عبء اتخاذ القرار.

وتنتشر تكنولوجيا الذكاء الاصطناعي في الوسائل التشخيصية في قطاع الصحة، وكذلك تطبيقات المؤسسات المالية، فضلا عن أنها أظهرت فاعلية كبيرة في مختلف القطاعات، وفقا لبوسكيل.

بينما أكدت دانييلا تراف مديرة شركة “جونسون كونترولز” أن تكنولوجيا الذكاء الاصطناعي تعمل على مواجهة الصعوبات المستدامة التي نواجهها في مختلف القطاعات، إلا أنها في الوقت نفسه تخلق صعوبات أخرى تتعلق بالتحديات الوجودية للإنسانية.

وأوضحت أن الذكاء الاصطناعي يحتاج إلى تشريعات تأخذ في الاعتبار المستقبل، وأن تفهم خطورة هذه التكنولوجيات، ومن ثم تضع المبادئ والمعايير التي تجعل منها تكنولوجيا آمنة، وأن تضمن تطبيق مبدأ الشفافية وتأمين الخصوصية.

 

 

إشترك في نشرتنا البريدية وتوصل بمواضيع مثيرة للإهتمام

شارك المقال مع أصدقائك

شارك برأيك

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني.

مقالات ذات صلة

منوعات

تحسن قدراتهم الجنسية .. دراسات علمية تؤكد فوائد الحلبة للرجال

منوعات

إليك أهم نباتات أكدت دراسات قدرتها على طرد البعوض

منوعات

هل يهدد ذلك وظيفة الإفتاء؟ .. روبوت يفتي النساء بالمسجد الحرام

تابعنا على