لا يبدو أن غوغل تفضل موظفيها الذين يستخدمون برامج الدردشة داخل مكان العمل ، بما في ذلك خدمتها الخاصة Bard. على الأقل هذه هي الطريقة التي كانت ستؤكدها مصادر مقربة من الشركة لوكالة رويترز ، التي أكدت أن غزغل أبلغت موظفيها بمخاطر هذا النوع من برامج الدردشة .
قبل كل شيء ، تريد غوغل من موظفيها تجنب مشاركة المعلومات السرية مع روبوتات الدردشة مثل Bard أو ChatGPT لتقليل مخاطر تسرب المعلومات المتعلقة بمشاريعهم أو تقنياتهم قيد التطوير.على الرغم من الإعلان عن Bard كأداة آمنة تحترم الخصوصية ، فإن غوغل تفضل أن يحد موظفوها من استخدام روبوت الدردشة في بيئة عملهم ، خاصة عندما يتعلق الأمر بمشاركة المعلومات السرية أو البيانات الحساسة.
في الماضي ، تبين أن بعض روبوتات الدردشة لديها القدرة على "استيعاب" البيانات التي تم الحصول عليها أثناء محادثاتهم مع المستخدمين لاستخدامها أثناء تعلمهم ، ولاحقًا لوحظ كيف قاموا بتكرار تلك البيانات في محادثات أخرى مختلفة تمامًا ، وبالتالي زيادة مخاطر تسرب المعلومات الحساسة. بصرف النظر عن ذلك ، في بعض الحالات ، تتم مراجعة المحتوى الذي تتم مشاركته مع روبوتات الدردشة من قبل البشر ، مما يؤدي إلى مخاطر أخرى تتعلق بالخصوصية.
وبنفس الطريقة ، فإن غوغل ليست مقتنعة تمامًا بفاعلية هذا النوع من الببوتات في بعض المهام ، مثل تلك المتعلقة بالبرمجة. لذلك ، كان من المفترض أن يتجنب الموظفون استخدام الكود الذي تم إنشاؤه بواسطة روبوتات المحادثة ، لأنه قد يحتوي على أخطاء.
كانت غوغل آخر شركة تجنب موظفيها استخدام Bard وبقية برامج الدردشة الآلية أثناء أنشطة عملهم ، أو على الأقل عدم مشاركة المعلومات السرية معهم. ومع ذلك ، ليست هي الوحيدة.
كانت سامسونغ من أوائل الشركات التي حظرت استخدام ChatGPT من قبل موظفيها ، وقررت البدء في تطوير أداة خاصة بها تهدف إلى استخدامها من قبل موظفيها.
بعد فترة وجيزة ، اتخذت آبل خطوات مماثلة من خلال تقييد استخدام ChatGPT وغيرها من الأدوات القائمة على الذكاء الاصطناعي لموظفيها ، أيضًا خوفًا من تسرب المعلومات.
تعد حالة غوغل أكثر إثارة للإعجاب ، حيث لا يبدو أنها متأكدة من أن أداتها الخاصة Bard ستكون قادرة على الحفاظ على سرية البيانات التي تم الحصول عليها أثناء المحادثات مع المستخدمين.
from حوحو للمعلوميات https://ift.tt/KYyiNpR
via IFTTT
0 التعليقات:
إرسال تعليق