Deepfakes, Bahaya AI yang Tidak Disadari Penggunanya di Internet
- Posted on 2023-10-14
- Edukasi
- By Agriqisthi
Jakarta - Kehebatan teknologi AI (Artificial Intelligence) sudah menjadi sumber daya yang luar biasa di banyak bidang. Bahkan tak sedikit orang Indonesia menggunakan teknologi ini untuk menghasilkan uang. Meskipun begitu, para pengguna harus waspada dengan kelemahannya dan salah satunya deepfakes yang berbahaya dan cenderung bersifat kriminal.
Ketika teknologi AI yang semakin canggih menyusup ke kehidupan masyarakat, foto dan video seseorang bisa dipalsukan dan ini dikenal sebagai ‘deepfakes.’ Sudah kerap terjadi di kalangan artis, dampak penggunaan ini mulai menyasar masyarakat biasa.
Foto atau video palsu juga bisa disebarkan di internet oleh para pengguna AI tak bertanggung jawab. Konten seperti ini dapat digunakan untuk menyajikan informasi palsu sebagai fakta. Dilansir dari The Joplin Globe, Asisten Profesor Analisis dan Manajemen Operasi di Bucknell University Thiago Serra menjelaskan, dengan menggunakan sedikit data tentang seseorang, konten yang sangat realistis berupa foto, video, hingga audio dapat diciptakan AI.
“Karena banyaknya data yang kami miliki saat ini, kami dapat membuat model generatif,” kata Serra (16/10). “Tidak perlu banyak hal untuk menciptakan gambaran bahwa Anda melakukan hal-hal yang belum pernah Anda lakukan.”
Asisten Profesor di Sekolah Tinggi Ilmu dan Teknologi Informasi Penn State University Shomir Wilson menambahkan bahwa teknologi AI memungkinkan pengguna membuat konten baru berdasarkan konten yang sudah ada. Ini bermanfaat untuk hal-hal seperti hiburan dan produksi film.
“Orang-orang dapat mengambil bagian dari satu video dan memasukkannya ke dalam video lain dengan sangat mudah,” ungkap Wilson (16/10).“Namun, dalam hal deepfakes, teknologi yang tampaknya sangat mudah diakses ini bisa menjadi masalah. Teknologi video digital telah mencapai titik ketika orang dengan pengetahuan teknologi terbatas mudah membuat video sendiri.”
Serra juga mengatakan, deepfakes kemungkinan akan menjadi sesuatu yang mengerikan dan bersifat kriminal. Seiring berjalannya waktu AI yang mampu menirukan suara dan memvisualkan tingkah laku seseorang bisa merekayasa kehidupan mereka untuk meyakinkan orang tertentu. Bahkan saat ini AI sudah bisa digunakan untuk menerima telepon dengan suara mirip pemilik telepon atau orang lain.
Mungkin contoh terbaru yang paling terkenal dari konten deepfakse semacam ini adalah gambar penangkapan mantan Presiden Donald Trump yang dibuat AI pada awal tahun 2023. Trump sebenarnya tidak ditangkap pada saat itu, namun gambar palsu tersebut membanjiri platform media sosial.
Selain itu, sudah banyak selebgram dan selebriti Tanah Air ternama yang menggunakan teknologi AI untuk konten deepfakes. Meskipun begitu, tujuannya hanya untuk mencari sensasi dan menghibur. Sebut saja Nagita Slavina yang foto deepfakesnya sudah beredar di berbagai sosial media. Salah satu yang cukup terkenal adalah foto Nagita Slavina menggunakan filter AI dengan versi dirinya jika menjadi orang Korea.
“Deepfakes juga paling sering digunakan dalam upaya mengarahkan politik,” tutur Wilson (16/10). “Ada orang-orang yang menempatkan politisi dalam situasi ketika mereka sama sekali tidak terlibat sesuatu yang buruk, atau memanipulasi video untuk membuat mereka tampak bertindak konyol,” kata Wilson.
Sudah ada banyak contoh deepfakes yang menggambarkan politisi, selebritas, dan bahkan warga negara biasa. Ini menjadi masalah bagi pengguna media sosial untuk mencari kebenaran konten deepfakes.
Menurut Serra dalam The Cullman Times, mengidentifikasi deepfakes adalah tugas yang sulit untuk dilakukan dan mungkin akan membutuhkan cara yang rumit. Wilson menambahkan, penting bagi pengguna media sosial menerapkan kebiasaan informasi yang baik, mencakup pertimbangan sumber konten dan pembingkaiannya.
“Penting untuk mempertimbangkan sumbernya. Apakah dari sumber berita terpercaya atau mungkin dari sumber yang belum pernah Anda dengar sebelumnya?” ucap Wilson (16/10). “Bagaimana penyajiannya? Apakah fungsinya untuk memberi informasi atau memprovokasi kita?”
Ada juga cara bagi individu untuk melindungi data dan konten mereka agar tidak diubah menjadi deepfakes. Serra merekomendasikan untuk menambahkan semacam watermark pada gambar sebelum mempostingnya di media sosial, sehingga setiap perubahan pada konten lebih mudah dideteksi.
“Saat Anda membagikan foto, tambahkan watermark supaya jika ada yang menggunakannya sebagai konten deepfakes, tanda itu juga akan ikut muncul,” kata Serra (16/10). “Ini akan memberitahu Anda bahwa itu berbeda dengan yang asli dan bisa Anda jadikan bahan klarifikasi.”
Sumber :
https://inforadar.disway.id/read/651340/potret-7-selebgram-indonesia-yang-ikut-tren-filter-ai-korea-nagita-slavina-jadi-sorotan https://www.cullmantimes.com/news/deepfake-concerns-growing-along-with-ai-technology/article_81a0a7a9-8c8a-5afa-ade7-e410c201e48e.html https://www.muskogeephoenix.com/cnhi_network/misinformation-ai-deepfakes/image_fdd9d22a-f9b6-5274-83be-4ad916c1fe4f.html https://www.joplinglobe.com/cnhi_network/deepfakes-a-concern-with-growing-ai-technology/article_516c76a8-3d1d-5f91-85a7-ea1e30f787a9.html
0 Komentar