Sistem berbasis Kecerdasan Buatan (AI) semakin menjadi sasaran utama serangan siber canggih, mengekspos kerentanan kritis di berbagai industri. Seiring organisasi semakin mengintegrasikan AI dan pembelajaran mesin (ML) ke dalam operasional mereka, keamanan sistem ini menjadi sangat penting. Tantangan keamanan ini mencakup seluruh siklus hidup AI/ML, mulai dari peracunan data hingga serangan adversarial yang dapat memanipulasi pengambilan keputusan AI.
Sebagai respons terhadap ancaman ini, disiplin baru, yaitu operasi keamanan pembelajaran mesin (MLSecOps), telah muncul untuk menyediakan fondasi keamanan AI yang kuat. Terdapat lima kategori dasar dalam MLSecOps.
Kerentanan Rantai Pasok Perangkat Lunak AI
Sistem AI bergantung pada ekosistem luas alat komersial dan sumber terbuka, data, serta komponen ML yang seringkali bersumber dari berbagai vendor dan pengembang. Jika tidak diamankan dengan baik, setiap elemen dalam rantai pasok perangkat lunak AI, baik itu dataset, model yang telah dilatih sebelumnya, maupun alat pengembangan, dapat dieksploitasi oleh pelaku jahat.
Serangan SolarWinds, yang mengkompromikan banyak jaringan pemerintah dan perusahaan, merupakan contoh yang terkenal. Penyerang menyusup ke rantai pasok perangkat lunak, menyematkan kode berbahaya ke dalam perangkat lunak manajemen TI yang banyak digunakan. Demikian pula, dalam konteks AI/ML, penyerang dapat menyuntikkan data yang rusak atau komponen yang dimanipulasi ke dalam rantai pasok, yang berpotensi mengkompromikan seluruh model atau sistem.
Untuk mengurangi risiko ini, MLSecOps menekankan verifikasi menyeluruh dan pemantauan berkelanjutan terhadap rantai pasok AI. Pendekatan ini mencakup verifikasi asal dan integritas aset ML, terutama komponen pihak ketiga, serta penerapan kontrol keamanan di setiap fase siklus hidup AI untuk memastikan tidak ada kerentanan yang diperkenalkan ke dalam lingkungan.
Provenansi Model
Dalam dunia AI/ML, model seringkali dibagikan dan digunakan kembali di berbagai tim dan organisasi, menjadikan provenansi model – bagaimana model ML dikembangkan, data yang digunakannya, dan bagaimana model tersebut berevolusi – sebagai perhatian utama. Memahami provenansi model membantu melacak perubahan pada model, mengidentifikasi potensi risiko keamanan, memantau akses, dan memastikan model berkinerja seperti yang diharapkan.
Model sumber terbuka dari platform seperti Hugging Face atau Model Garden banyak digunakan karena aksesibilitas dan manfaat kolaboratifnya. Namun, model sumber terbuka juga menimbulkan risiko, karena dapat mengandung kerentanan yang dapat dieksploitasi oleh aktor jahat setelah diperkenalkan ke lingkungan ML pengguna.
Praktik terbaik MLSecOps menyerukan pemeliharaan riwayat terperinci tentang asal dan silsilah setiap model, termasuk AI-Bill of Materials (AI-BOM), untuk melindungi dari risiko ini.
Dengan menerapkan alat dan praktik untuk melacak provenansi model, organisasi dapat lebih memahami integritas dan kinerja model mereka serta melindungi dari manipulasi jahat atau perubahan yang tidak sah, termasuk namun tidak terbatas pada ancaman dari dalam.
Tata Kelola, Risiko, dan Kepatuhan (GRC)
Langkah-langkah GRC yang kuat sangat penting untuk memastikan pengembangan dan penggunaan AI yang bertanggung jawab dan etis. Kerangka kerja GRC memberikan pengawasan dan akuntabilitas, memandu pengembangan teknologi yang didukung AI yang adil, transparan, dan akuntabel.
AI-BOM merupakan artefak kunci untuk GRC. Ini pada dasarnya adalah inventaris komprehensif dari komponen sistem AI, termasuk detail alur kerja ML, dependensi model dan data, risiko lisensi, data pelatihan dan asal-usulnya, serta kerentanan yang diketahui atau tidak diketahui. Tingkat wawasan ini sangat penting karena seseorang tidak dapat mengamankan apa yang tidak diketahuinya ada.
AI-BOM memberikan visibilitas yang diperlukan untuk melindungi sistem AI dari kerentanan rantai pasok, eksploitasi model, dan lainnya. Pendekatan yang didukung MLSecOps ini menawarkan beberapa keuntungan utama, seperti peningkatan visibilitas, mitigasi risiko proaktif, kepatuhan terhadap peraturan, dan peningkatan operasi keamanan.
Selain menjaga transparansi melalui AI-BOM, praktik terbaik MLSecOps harus mencakup audit rutin untuk mengevaluasi keadilan dan bias model yang digunakan dalam sistem pengambilan keputusan berisiko tinggi. Pendekatan proaktif ini membantu organisasi mematuhi persyaratan peraturan yang terus berkembang dan membangun kepercayaan publik pada teknologi AI mereka.
AI Terpercaya
Pengaruh AI yang semakin besar terhadap proses pengambilan keputusan menjadikan kepercayaan sebagai pertimbangan utama dalam pengembangan sistem pembelajaran mesin. Dalam konteks MLSecOps, AI terpercaya mewakili kategori kritis yang berfokus pada memastikan integritas, keamanan, dan pertimbangan etis AI/ML di seluruh siklus hidupnya.
AI terpercaya menekankan pentingnya transparansi dan kemampuan penjelasan dalam AI/ML, yang bertujuan untuk menciptakan sistem yang dapat dipahami oleh pengguna dan pemangku kepentingan. Dengan memprioritaskan keadilan dan berusaha untuk mengurangi bias, AI terpercaya melengkapi praktik yang lebih luas dalam kerangka MLSecOps.
Konsep AI terpercaya juga mendukung kerangka MLSecOps dengan mengadvokasi pemantauan berkelanjutan terhadap sistem AI. Penilaian berkelanjutan diperlukan untuk mempertahankan keadilan, akurasi, dan kewaspadaan terhadap ancaman keamanan, memastikan model tetap tangguh. Bersama-sama, prioritas-prioritas ini menumbuhkan lingkungan AI yang terpercaya, adil, dan aman.
Pembelajaran Mesin Adversarial
Dalam kerangka kerja MLSecOps, pembelajaran mesin adversarial (AdvML) adalah kategori penting bagi mereka yang membangun model ML. Ini berfokus pada identifikasi dan mitigasi risiko yang terkait dengan serangan adversarial.
Serangan ini memanipulasi data input untuk menipu model, yang berpotensi menyebabkan prediksi yang salah atau perilaku tak terduga yang dapat mengkompromikan efektivitas aplikasi AI. Misalnya, perubahan halus pada gambar yang dimasukkan ke dalam sistem pengenalan wajah dapat menyebabkan model salah mengidentifikasi individu tersebut.
Dengan memasukkan strategi AdvML selama proses pengembangan, pembangun dapat meningkatkan langkah-langkah keamanan mereka untuk melindungi dari kerentanan ini, memastikan model mereka tetap tangguh dan akurat dalam berbagai kondisi.
AdvML menekankan perlunya pemantauan dan evaluasi berkelanjutan terhadap sistem AI di seluruh siklus hidupnya. Pengembang harus menerapkan penilaian rutin, termasuk pelatihan adversarial dan pengujian stres, untuk mengidentifikasi potensi kelemahan dalam model mereka sebelum dapat dieksploitasi.
Dengan memprioritaskan praktik AdvML, praktisi ML dapat secara proaktif melindungi teknologi mereka dan mengurangi risiko kegagalan operasional.
Kesimpulan
AdvML, bersama dengan kategori lainnya, menunjukkan peran penting MLSecOps dalam mengatasi tantangan keamanan AI. Bersama-sama, kelima kategori ini menyoroti pentingnya memanfaatkan MLSecOps sebagai kerangka kerja komprehensif untuk melindungi sistem AI/ML dari ancaman yang muncul dan yang sudah ada. Dengan menyematkan keamanan di setiap fase siklus hidup AI/ML, organisasi dapat memastikan bahwa model mereka berkinerja tinggi, aman, dan tangguh.
Relevansi untuk Indonesia: Membangun Kepercayaan di Era Digital
Penerapan prinsip-prinsip MLSecOps di Indonesia sangat relevan dalam konteks percepatan adopsi teknologi AI di berbagai sektor. Dengan meningkatnya penggunaan AI dalam layanan publik, keuangan, dan industri lainnya, memastikan keamanan, transparansi, dan keandalan sistem AI menjadi krusial untuk membangun kepercayaan publik. Kerangka kerja seperti AI-BOM dan fokus pada provenansi model dapat membantu organisasi di Indonesia dalam mematuhi regulasi yang berkembang dan melindungi dari potensi ancaman siber. Mengadopsi pendekatan proaktif terhadap keamanan AI tidak hanya akan memperkuat ketahanan siber nasional, tetapi juga membuka jalan bagi inovasi AI yang bertanggung jawab dan berkelanjutan.
Sumber: technewsworld















