Microsoft sedang menangani kebocoran data signifikan yang disebabkan oleh peneliti artificial intelligence (AI) alias kecerdasan buatan.
Gizchina, Rabu (10/9) melaporkan, tim AI Microsoft yang mengunggah data pelatihan agar peneliti lain dapat melatih model AI untuk pengenalan gambar, secara tidak sengaja mengekspos data sensitif tersebut.
Data yang bocor mencakup banyak rahasia, kunci pribadi, kata sandi, dan lebih dari 30 ribu percakapan pesan internal tim Microsoft. Informasi tersebut berasal dari Wiz, sebuah perusahaan keamanan cloud, yang pertama kali menyadari pelanggaran data ini.
Meski begitu, Microsoft dalam laporan resminya, mencatat bahwa tidak ada data pelanggan yang terungkap, dan tidak ada layanan internal lainnya yang berisiko karena masalah itu.
Microsoft juga menunjukkan bahwa tidak ada tindakan yang diperlukan dilakukan oleh pelanggan. Tautan ke data yang menyertakan berkas dibuat menggunakan fitur di Azure yang disebut “token SAS”.
Apa yang disebut “Token SAS” memungkinkan pengguna membuat tautan yang dapat dibagikan dengan cepat dan mudah. Wiz pertama kali menemukan akses ke data tersebut pada 22 Juni dan memberi tahu Microsoft.
Token tersebut dicabut keesokan harinya dan Microsoft mengatakan telah memperbaiki masalah tersebut, menyesuaikan token SAS yang lebih permisif daripada yang dimaksudkan.
“Informasi yang terungkap terdiri dari informasi unik dua mantan karyawan Microsoft dan stasiun kerja mantan karyawan tersebut. Tidak ada data pelanggan yang terekspos, dan tidak ada layanan Microsoft lainnya yang terkena risiko karena masalah ini,” kata perusahaan itu.
Microsoft sangat bersemangat dalam meningkatkan upaya di bidang AI. Perusahaan menginvestasikan miliaran dolar pada OpenAI untuk membangun kemitraan yang solid dalam penggunaan dan pengembangan ChatGPT.
Hasilnya, Microsoft memperbarui Bing Assistant yang kini didukung oleh ChatGPT 4. Perusahaan juga mengintegrasikan AI di sebagian besar layanannya, memulai apa yang disebut sebagai revolusi AI dalam ekosistemnya.
COPYRIGHT © ANTARA News Bangka Belitung 2023
Gizchina, Rabu (10/9) melaporkan, tim AI Microsoft yang mengunggah data pelatihan agar peneliti lain dapat melatih model AI untuk pengenalan gambar, secara tidak sengaja mengekspos data sensitif tersebut.
Data yang bocor mencakup banyak rahasia, kunci pribadi, kata sandi, dan lebih dari 30 ribu percakapan pesan internal tim Microsoft. Informasi tersebut berasal dari Wiz, sebuah perusahaan keamanan cloud, yang pertama kali menyadari pelanggaran data ini.
Meski begitu, Microsoft dalam laporan resminya, mencatat bahwa tidak ada data pelanggan yang terungkap, dan tidak ada layanan internal lainnya yang berisiko karena masalah itu.
Microsoft juga menunjukkan bahwa tidak ada tindakan yang diperlukan dilakukan oleh pelanggan. Tautan ke data yang menyertakan berkas dibuat menggunakan fitur di Azure yang disebut “token SAS”.
Apa yang disebut “Token SAS” memungkinkan pengguna membuat tautan yang dapat dibagikan dengan cepat dan mudah. Wiz pertama kali menemukan akses ke data tersebut pada 22 Juni dan memberi tahu Microsoft.
Token tersebut dicabut keesokan harinya dan Microsoft mengatakan telah memperbaiki masalah tersebut, menyesuaikan token SAS yang lebih permisif daripada yang dimaksudkan.
“Informasi yang terungkap terdiri dari informasi unik dua mantan karyawan Microsoft dan stasiun kerja mantan karyawan tersebut. Tidak ada data pelanggan yang terekspos, dan tidak ada layanan Microsoft lainnya yang terkena risiko karena masalah ini,” kata perusahaan itu.
Microsoft sangat bersemangat dalam meningkatkan upaya di bidang AI. Perusahaan menginvestasikan miliaran dolar pada OpenAI untuk membangun kemitraan yang solid dalam penggunaan dan pengembangan ChatGPT.
Hasilnya, Microsoft memperbarui Bing Assistant yang kini didukung oleh ChatGPT 4. Perusahaan juga mengintegrasikan AI di sebagian besar layanannya, memulai apa yang disebut sebagai revolusi AI dalam ekosistemnya.
COPYRIGHT © ANTARA News Bangka Belitung 2023