Menurut laporan penyelidikan yang dikeluarkan pada 18 September waktu tempatan, syarikat permulaan keselamatan awan China Wiz Research menegaskan bahawa pasukan penyelidik kecerdasan buatan (AI) Microsoft secara tidak sengaja membocorkan sejumlah besar cache data peribadi pada GitHub. Keadaan ini disebabkan oleh token SAS yang salah konfigurasi. Pasukan penyelidik AI Microsoft mengeluarkan data latihan sumber terbuka pada GitHub, tetapi secara tidak sengaja mendedahkan 38TB data dalaman lain, termasuk sandaran cakera komputer peribadi dua pekerja Microsoft. Sandaran mengandungi maklumat sulit, kunci peribadi, kata laluan dan lebih daripada 30,000 mesej dalaman Microsoft Teams. Microsoft menjawab pada hari itu bahawa ia telah membatalkan token SAS dan menyelesaikan penyiasatan dalaman terhadap potensi kesan. Tiada data pelanggan didedahkan dan tiada perkhidmatan Microsoft lain yang berisiko akibat isu ini
Sumber tangkapan skrin: laman web rasmi Wiz Research
Sumber tangkapan skrin: laman web rasmi Microsoft
Atas ialah kandungan terperinci Kebocoran data besar-besaran! Pasukan Microsoft AI secara tidak sengaja membocorkan lebih daripada 30,000 maklumat dalaman. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!