• ×
الأربعاء 28 جمادى الأول 1447

كيف يهدد الانفجار التقني حقوق الأفراد ويعيد تشكيل مفهوم البيانات الشخصية وملكية «الذات الرقمية»؟

الذكاء الاصطناعي بين التمكين والمراقبة: معركة استعادة الخصوصية في العصر الرقمي

الذكاء الاصطناعي بين التمكين والمراقبة: معركة استعادة الخصوصية في العصر الرقمي
بواسطة مراد منذ 11 ساعة 5 زيارات
 ثقة: وكالات

ما لم يُقيّد ويُعاد بناؤه على تصورات جديدة على وجه السرعة؛ فإن الذكاء الاصطناعي يهدد بتدمير الخصوصية بطرق أعمق من أي عصر تكنولوجي سابق، كما كتبت جين كالترايدر (*).

الخصوصية حق من حقوق الإنسان
إنني أعمل على حماية المعلومات الشخصية للأفراد، وأُؤكّد أن الخصوصية يجب أن تكون تلقائية، كحق أساسي من حقوق الإنسان. لكن المجتمع فشل في بناء حماية كافية، لا سيما مع صعود منصات التواصل الاجتماعي والإعلانات المُوجّهة.

وقد أقنعت الشركات المستخدمين بأن «البيانات هي ثمن» استخدام الخدمات الحديثة، مع أن البيانات الشخصية يجب أن تكون أداةً يتحكم بها الأفراد لتحسين حياتهم.

أعمال ومشاعر وأقوال ورغبات الأفراد في خطر
ومع الذكاء الاصطناعي، يتفاقم اختلال توازن القوى حول البيانات بشكلٍ كبير. إذ تعتمد أنظمة الذكاء الاصطناعي الآن بشكلٍ كبير على مجموعات بيانات شخصية ضخمة، ما يجعل المعلومات المتعلقة بالأفراد - ما يفعلونه، وما يشعرون به، وما يقولونه، وما يريدونه - أكثر قيمةً وأكثر عُرضةً للخطر من أي وقت مضى.

وتُوضّح الأمثلة هذا التهديد المُتزايد. يتخيل رواد التكنولوجيا مستقبلاً يُمكّن فيه الذكاء الاصطناعي من الوصول إلى كل محادثة أو كتاب أو بريد إلكتروني أو صورة صادفها أي شخص. وتتزايد الأجهزة القابلة للارتداء في جمع الحالات العاطفية آنياً. وتستطيع النظارات الذكية تسجيل كل ما نراه. وتتخذ روبوتات الدردشة الذكية شخصية المعالجين، مشجعةً المستخدمين على مشاركة مشاعرهم الحميمة، ما قد يؤدي إلى نتائج مأساوية في بعض الحالات.

تضارب الدوافع ونقاط الضعف الأخلاقية
لا تقتصر البيانات الشخصية في عصر الذكاء الاصطناعي على وصف الأشخاص فحسب، بل تُشكل هوياتهم وسلوكياتهم، لا سيما في بيئة من أصدقاء الذكاء الاصطناعي ورفاقه وعملائه. ويُعدّ ترك هذه البيانات في أيدي الشركات أو الحكومات أمراً محفوفاً بالمخاطر، لا سيما في ظل تضارب الدوافع، أو نقاط الضعف الأخلاقية، أو تغير الأجندات السياسية.

تاريخ مُبسط للخصوصية
لفهم المخاطر، إليكم تاريخاً مُبسطاً للخصوصية: في السياقات الدينية القديمة، كانت الخصوصية شبه معدومة؛ إذ كان يُفترض وجود مراقبة إلهية. وفي معظم أنحاء العالم في العصور الوسطى، كانت الخصوصية مستحيلة مادياً، حيث عاش الناس في مساحات ضيقة مشتركة. ومع ظهور المطبعة، بدأ الأفراد بالقراءة بمفردهم وبناء عوالم داخلية خاصة. ووسّع مفكرو عصر التنوير مفهوم الخصوصية الشخصية، ليشمل الأفكار والممتلكات والمراسلات.

وخلال العصر الصناعي، ظهرت الحماية القانونية ضد التفتيش والتشهير والتعدي على الممتلكات. وفي عام 1890، تمت صياغة «الحق في الخصوصية» رسمياً، للدفاع عن الحق في أن يُترك الناس وشأنهم، وتوسع نطاق الحماية ليشمل مشاعر الناس وحياتهم العقلية.

عصر التكنولوجيا زعزع الخصوصية
لكن عصر التكنولوجيا زعزع استقرار الخصوصية. فأتاحت الهواتف التنصت على المكالمات الهاتفية، وأتاحت الكاميرات المراقبة. وزادت الحروب العالمية والحرب الباردة من تطبيع التجسس الحكومي. وبحلول عصر الإنترنت، انهارت الخصوصية تماماً. فقد أدت وسائل التواصل الاجتماعي، وجمع البيانات الضخمة، وأدوات تتبع المواقع الشامل، والإعلانات الإلكترونية المتطورة، إلى تآكل السيطرة الشخصية.

اضطرار التشارك بالبيانات
وتحوّل علماء الخصوصية من تصور الخصوصية كعزلة تامة إلى «سلامة السياق»، أي توقع مشاركة البيانات الشخصية فقط مع متلقين مختارين، في ظروف محددة. لكن هذا النموذج فشل بسبب تسويق البيانات تجارياً. وأصبحت الموافقة مدفونة في سياسات خصوصية غير قابلة للقراءة ومُقنّعة خلف أزرار «موافق».

ومنحت بعض الحمايات القانونية الأميركية، مثل اللائحة العامة لحماية البيانات (GDPR) وقانون خصوصية المستهلك في كاليفورنيا (CCPA)، الأفراد الحق في معرفة البيانات التي جُمعت، أو حذفها، أو إلغاء بيعها. ومع ذلك، فلا يمكن حتى لهذه اللوائح مواكبة الأنظمة المتعطشة للبيانات والغامضة، التي تُشكل عصر وسائل التواصل الاجتماعي، ناهيك بعصر الذكاء الاصطناعي الأكثر تدخلاً الذي يبرز الآن.

متطلبات الذكاء الاصطناعي للبيانات غير مسبوقة
إن متطلبات الذكاء الاصطناعي للبيانات غير مسبوقة: كل شيء من التعبيرات والعادات إلى أنماط اللغة الشخصية العميقة. يشارك الأفراد أنفسهم في خلق هذه الثغرة، حيث يتخذون خيارات تستبدل بالخصوصية الراحة. يستخدم الناس أدوات التعرف على الوجه، ويمنحون وكلاء الذكاء الاصطناعي وصولاً واسعاً إلى البريد الإلكتروني والبيانات المالية، ويثقون برفاق الذكاء الاصطناعي لتخفيف الشعور بالوحدة. في عام 2025، سيكون الاستخدام الأكثر شيوعاً للذكاء الاصطناعي هو العلاج والرفقة، ما يوضح مدى شخصية هذه التفاعلات وهشاشتها.

قد يُدمر الذكاء الاصطناعي الخصوصية أو قد يُنقذها
تكمن المشكلة الأساسية في أنه لا يفهم أحد حقاً كيفية عمل هذه النماذج القوية أو ما يحدث بداخلها، ومع ذلك يُتوقع من المستخدمين التخلي عن كميات هائلة من البيانات الشخصية لتحسين وظائفها. وأنا أشبه هذه اللحظة بالعودة إلى العصور القديمة - عالم يُشرف عليه وجودٌ عليمٌ بكل شيء، يرى كل شيء. ولكن على عكس العالم الإلهي، فإن الذكاء الاصطناعي من صنع الإنسان، مبنيٌّ على خوارزميات ومجموعات بيانات ودوافع للشركات، بما في ذلك الربح والتأثير والسيطرة.

ضرورة إعادة صياغة حقوق البيانات
على الرغم من هذا المسار المُقلق، فإن الذكاء الاصطناعي قد يكون أيضاً مفتاحاً لإنقاذ الخصوصية، إذا اغتنم المجتمع الفرصة لإعادة صياغة حقوق البيانات. ولذا أدعو إلى معادل حديث للمطبعة: بنية تحتية تحويلية تُمكّن الأفراد من التحكم في بياناتهم الخاصة. تاريخياً، ساهمت المطبعة في دمقرطة المعرفة، مُمكّنةً تفتُّح الفكر الخاص، وممهدةً الطريق لثورات فكرية كبرى. وبالمثل، يحتاج مجتمع اليوم إلى تحول تكنولوجي يُلغي مركزية البيانات ويُعيد السيطرة للأفراد.

ملكية البيانات الفكرية ونقلها
هنا يصبح مفهوم قابلية نقل البيانات أمراً حيوياً. على الرغم من أنها تبدو عادية، لكن قابلية نقل البيانات تُحدث ثورة في هذا المجال. فهي تعني أن بإمكان الأفراد نقل بياناتهم بسهولة وأمان - عبر الخدمات والمنصات والأدوات - مع الحفاظ على الملكية والتحكم. اليوم، يصعب الوصول إلى قابلية نقل البيانات إلى حد كبير؛ فغالباً ما تُنتج الأدوات الحالية ملفات ضخمة وغير قابلة للقراءة لا يمكن للأفراد استخدامها بشكل مفيد. وهذا الغموض ليس مصادفة: فالشركات تستفيد من الاحتفاظ بسيطرة محكمة على بيانات المستخدم، ما يجعل مغادرته لها صعبة.

محفظة بيانات شخصية آمنة بدلاً من خوادم غامضة
ومع ذلك، إذا تم دمج قابلية نقل البيانات في نظام متماسك، فقد تُشكل العمود الفقري لبنية تحتية جديدة للخصوصية. وأنا أتخيل عالماً لا تُخزن فيه البيانات الشخصية في خوادم شركات غامضة، بل تُحفظ محلياً في محفظة بيانات شخصية آمنة أو «بود». يمكن بعد ذلك استخدام هذه البيانات بواسطة مساعد ذكاء اصطناعي شخصي يعيش مع المستخدم، ويعمل محلياً، ويتعلم فقط من معلوماته - بإذن صريح. يخدم هذا الذكاء الاصطناعي الفرد فقط، وليس نموذج أعمال الشركة.

ومن الأمثلة الواضحة على ذلك تطبيقات تتبع الدورة الشهرية. اليوم، يتشارك ملايين الأشخاص بيانات صحية بالغة الحساسية عبر تطبيقات مملوكة لشركات قد تبيع هذه المعلومات أو تُسلمها للسلطات، لا سيما في المناطق ذات قوانين الصحة الإنجابية المُقيّدة.

ولذا؛ أقترح مثلاً نظاماً ستُحفظ فيه هذه البيانات فقط في وحدة تخزين شخصية للمستخدم، لا يُمكن الوصول إليها إلا من خلال الذكاء الاصطناعي الخاص به، الذي يُمكنه بعد ذلك من المساعدة في تتبع الأنماط الصحية أو تقديم الدعم دون تعريضهم للمراقبة أو المخاطر القانونية.

يمكن أن يمتد هذا النموذج ليشمل العديد من المجالات الأخرى؛ الرعاية الصحية، والتكيف مع تغير المناخ، والاستقرار المالي، ودعم الوظائف، وغيرها. في كل حالة، يُمكن أن يُتيح الجمع بين الذكاء الاصطناعي الخاص والبيانات المحمولة التي يُتحكم بها شخصياً إمكانيات جديدة مع الحفاظ على الاستقلالية والسلامة.

بنية تحتية جديدة
لن يكون بناء هذه البنية التحتية أمراً سهلاً. فهو يتطلب تقنيات جديدة، ولوائح جديدة، وحوافز جديدة للصناعة؛ وهي أمور لا وجود لها حالياً. يعمل بعض المُبتكرين، بمن فيهم مُبتكر شبكة الإنترنت العالمية، على مكونات أولية. وكما هو الحال مع مطبعة جديدة، قد تُقاوم القوى المُتنفذة التغييرات التي تُهدد سيطرتها. مع ذلك، فإن الخيار واضح: فمن دون إجراءات حاسمة، سينجرف المجتمع نحو مستقبل بائس تنقرض فيه الخصوصية. ولكن إذا طوّرنا أدواتٍ تمنح الأفراد السيادة على بياناتهم، فقد يُصبح الذكاء الاصطناعي قوةً للتمكين بدلاً من المراقبة.

إن التحكم في بيانات المرء يُعادل التحكم في مصيره. لذا فإن استعادة الخصوصية في عصر الذكاء الاصطناعي هي التحدي القادم - وهو أمرٌ ممكن وملحّ.

*مديرة الأبحاث في «ديتا ترانسفير إنيشياتيف، مجلة «فاست كومباني»، خدمات «تريبيون ميديا».