استخدام محادثاتك مع جيميني لتدريب الذكاء الاصطناعي يثير مخاوف الخصوصية

استخدام محادثاتك مع جيميني لتدريب الذكاء الاصطناعي يثير مخاوف الخصوصية

أعلنت شركة غوغل عن تغييرات جوهرية في كيفية عمل روبوت الدردشة “جيميني”، حيث أكدت أنها ستبدأ ابتداءً من 2 سبتمبر/ أيلول باستخدام عينات من محادثات المستخدمين وبياناتهم من أجل تدريب نماذج الذكاء الاصطناعي الخاصة بها. هذا القرار أثار جدلاً واسعًا بين المهتمين بالتقنية ومستخدمي جيميني، خصوصًا فيما يتعلق بمخاطر الخصوصية وكيفية حماية البيانات الشخصية. وتمنح غوغل للمستخدمين خيار إلغاء الاشتراك إذا لم يرغبوا في إدخال بياناتهم ضمن عملية التدريب، وذلك من خلال إعدادات الحساب على المنصة الرسمية Google.

ميزة السياق الشخصي في جيميني

قدمت غوغل مؤخرًا ميزة “السياق الشخصي” في روبوت الدردشة جيميني، والتي تسمح للذكاء الاصطناعي بتذكر تفاصيل المحادثات السابقة وتكييف الردود بناءً على اهتمامات المستخدم. هذه الميزة مصممة لتقديم إجابات أكثر دقة وتوصيات ملائمة، لكنها في الوقت ذاته تزيد من قلق المستخدمين بشأن كمية البيانات التي يتم تخزينها وطريقة التعامل معها. ورغم أن غوغل وعدت بإمكانية تشغيل هذه الميزة أو إيقافها من خلال إعدادات التطبيق، فإن التحدي الأكبر يكمن في مدى ثقة المستخدم في التزام الشركة بوعودها.
إقرأ ايضاً:افتتاح مركز خدمات المجتمعات العمرانية بالعلمين الجديدة لدعم المستثمرين والمواطنينحماس تعلن استعدادها لقبول مقترح الهدنة الأخير في غزة دون تعديلات

[widget_list 3]

الدردشات المؤقتة كخيار بديل

ولمواجهة هذه المخاوف، أضافت غوغل ميزة “الدردشات المؤقتة”، والتي تتيح للمستخدمين إجراء محادثات يتم الاحتفاظ بها لمدة 72 ساعة فقط على خوادم الشركة قبل حذفها تلقائيًا. الهدف من هذه الخاصية هو منح المستخدمين حرية أكبر في إدارة بياناتهم وتخفيف القلق من استخدام محادثاتهم في عمليات التدريب أو التخزين طويل المدى. هذه الخطوة اعتبرها البعض محاولة من غوغل لإيجاد توازن بين تقديم ميزات ذكية والحفاظ على الخصوصية.

كيف تحمي بياناتك من الاستخدام في التدريب؟

أوضحت غوغل أنها ستقوم خلال الأسابيع المقبلة بتحديث إعدادات الخصوصية داخل الحسابات لتشمل خيار إلغاء استخدام البيانات في تطوير نماذجها الذكية. هذا يعني أن على كل مستخدم مراجعة إعداداته بشكل دوري والتأكد من تعطيل الخيار إذا لم يرغب في أن تكون محادثاته جزءًا من بيانات التدريب. وبذلك يتحمل المستخدم جزءًا من المسؤولية في حماية خصوصيته الرقمية، خاصة في ظل سباق الشركات نحو تطوير نماذج ذكاء اصطناعي أكثر تطورًا.

توضح هذه التغييرات أن مستقبل الذكاء الاصطناعي مرتبط ارتباطًا وثيقًا بالبيانات الشخصية للمستخدمين. لذلك فإن التحدي الأكبر أمام الشركات هو تحقيق التوازن بين تقديم تجارب ذكية ومتطورة وبين احترام حق المستخدم في الخصوصية وحماية بياناته. وإذا لم تنجح غوغل في طمأنة المستخدمين، فقد تدفع هذه السياسات البعض للبحث عن بدائل توفر أمانًا وشفافية أكبر.