Facebook Rilis Opacus: Pustaka untuk Latih Model PyTorch dengan Privasi Diferensial

1 min


139
Mochamad Wahyu Hidayat

Liputan6.com, Jakarta – Facebook merilis pustaka berkecepatan tinggi baru untuk melatih model PyTorch dengan privasi diferensial. Pustaka bernama Opacus itu disebut lebih skalabel daripada pustaka serupa lainnya.
“Privasi diferensial adalah kerangka kerja yang ketat untuk mengukur anonimisasi data sensitif secara matematis. Ini sering digunakan dalam Analytics, seiring dengan meningkatnya minat pada komunitas Machine Learning,” kata tim Facebook AI Research, dikutip dari keterangan perusahaan.

Perusahaan, dengan merilis Opacus, berharap dapat memberikan jalur lebih mudah bagi para peneliti dan insinyur untuk mengadopsi privasi diferensial di bidang Machine Learning.
Selain itu, pustaka ini diharapkan dapat mempercepat penelitian privasi diferensial di lapangan. Berikut ini fitur-fitur unggulan dari Opacus:
Kecepatan
Dengan memanfaatkan Autograd di PyTorch, Opacus dapat menghitung kumpulan gradien per sampel, yang menghasilkan urutan percepatan besaran dibandingkan dengan pustaka privasi diferensial yang ada yang mengandalkan microbatching.
Keamanan
Opacus menggunakan generator nomor pseudo-acak yang secara kriptografik aman untuk kode keamanan kritisnya. Ini diproses dengan kecepatan tinggi pada GPU untuk seluruh batch parameter.


Like it? Share with your friends!

139

What's Your Reaction?

Marah Marah
0
Marah
Suka Suka
0
Suka
Kaget Kaget
0
Kaget
Muntah Muntah
0
Muntah
Sedih Sedih
0
Sedih
Ketawa Ketawa
0
Ketawa
Cinta Cinta
0
Cinta
Ngakak Ngakak
0
Ngakak