
SURABAYA (Lentera) - Para ilmuwan kini mulai menggunakan kecerdasan buatan (AI) untuk menciptakan virus baru yang berbeda dari varian maupun strain yang telah dikenal sebelumnya. Inovasi ini membuka kemungkinan lahirnya bentuk kehidupan hasil rekayasa teknologi, namun sekaligus menimbulkan kekhawatiran terkait potensi penyalahgunaan dan risiko keamanannya.
Para peneliti tengah mengembangkan bakteriofag, yakni jenis virus yang secara khusus menyerang bakteri. Mereka menegaskan bahwa model AI yang digunakan dirancang dengan keamanan ketat sehingga tidak dapat menghasilkan virus yang dapat menginfeksi manusia, hewan, ataupun tumbuhan.
Riset lain yang dimuat dalam jurnal Science pada 2 Oktober 2025 mengungkap bahwa kecerdasan buatan juga mampu melewati sistem keamanan yang dibuat untuk mencegah pembuatan senjata biologis. Dalam penelitian tersebut, tim dari Microsoft menemukan bahwa sistem AI dapat menipu mekanisme pemesanan bahan kimia berbahaya dari pemasok laboratorium.
Usai menemukan celah keamanan itu, para peneliti segera membuat pembaruan perangkat lunak guna meminimalkan potensi risikonya. Kendati demikian, penggunaan sistem tersebut masih memerlukan tingkat keahlian teknis yang tinggi serta akses yang sangat terbatas.
Seorang mahasiswa program doktor di Stanford University, Sam King, juga meneliti potensi AI dalam merancang bakteriofag baru yang dapat melawan bakteri penyebab infeksi. Hasil riset King bersama pembimbingnya, Brian Hie, yang merupakan asisten profesor teknik kimia, telah dipublikasikan di basis data bioRxiv pada September 2025, meskipun belum melewati proses tinjauan sejawat (peer review).
“Metode ini saat ini masih sangat menantang dan membutuhkan banyak keahlian serta waktu,” ujar King, dikutip dari Live Science pada Selasa, 7 Oktober 2025. “Kami merasa hal ini belum menurunkan ambang kesulitan untuk aplikasi yang lebih berbahaya.”
Langkah keamanan dalam penelitian itu meliputi penghapusan seluruh data terkait virus yang dapat menginfeksi manusia dari proses pelatihan AI, serta dilakukan uji tambahan untuk memastikan model tidak menciptakan urutan genetik yang berpotensi berbahaya.
Butuh Pengawasan
Namun, beberapa ahli menilai bahwa regulasi keamanan di bidang ini masih tertinggal dibandingkan dengan laju kemajuan teknologi. Tina Hernandez-Boussard, profesor kedokteran di Stanford University School of Medicine sekaligus konsultan keamanan dalam riset tersebut, memperingatkan bahwa kecerdasan buatan dapat menembus sistem pengamanan jika tidak diawasi dengan ketat.
“Kita harus ingat bahwa model ini dirancang untuk memiliki kinerja tertinggi, jadi begitu diberi data pelatihan, mereka bisa menembus sistem pengamanm” katanya.
Beberapa negara telah mengambil langkah antisipatif untuk menghadapi potensi risiko dari perkembangan AI. Pemerintah Amerika Serikat, melalui perintah eksekutif pada 2023, menegaskan pentingnya penilaian keamanan AI serta penerapan kebijakan mitigasi risiko. Sementara itu, di Inggris, lembaga AI Security Institute tengah merumuskan standar guna mencegah penyalahgunaan teknologi tersebut.
King menjelaskan bahwa meskipun secara teoretis AI mampu merancang genom baru untuk menciptakan bentuk kehidupan, hingga kini belum ada metode praktis yang dapat dengan mudah mengubah rancangan tersebut menjadi organisme hidup di laboratorium.
“Ada peran bagi pendana, penerbit, industri, dan akademisi,” ujar Hernandez-Boussard. “Seluruh komunitas multidisipliner ini harus turut memastikan adanya evaluasi keamanan yang memadai.”
Co-Editor: Nei-Dya/berbagai sumber