Aplikasi

Marak Penipuan Menggunakan Suara AI, Berikut Penjelasan dan Cara Menghindarinya

Teknologi AI yang mampu meniru bahkan melampaui kecerdasan manusia dalam berbagai tugas. Tips dan cara menghindari penipuan menggunakan AI.

Penulis: Dzakkyah Putri | Editor: Nisa Zakiyah
Indochinatown
Ilustrasi - Marak penipuan menggunakan suara AI, berikut penjelasan dan cara menghindarinya. 

Saat menerima informasi dari sistem AI, pastikan untuk memverifikasi sumbernya.

Jika informasi tersebut berasal dari aplikasi atau platform tertentu, pastikan bahwa platform tersebut dapat dipercaya dan memiliki reputasi yang baik.

• Waspadai phishing

Penjahat cyber dapat menggunakan teknologi AI untuk meningkatkan efektivitas serangan phishing.

Oleh karena itu, selalu waspada terhadap email atau pesan yang mencurigakan dan jangan klik tautan atau lampiran yang mencurigakan.

• Gunakan sistem keamanan yang kuat

Pastikan perangkat Anda dilengkapi dengan perangkat lunak keamanan yang mutakhir dan selalu diperbarui.

Ini dapat membantu melindungi Anda dari ancaman keamanan yang melibatkan AI.

• Gunakan layanan yang tepercaya

Saat menggunakan layanan online yang menggunakan teknologi AI, pastikan untuk memilih layanan yang tepercaya dan memiliki reputasi yang baik.

Baca ulasan pengguna dan tinjau kebijakan privasi mereka.

• Waspadai deepfake

Deepfake adalah teknologi AI yang dapat digunakan untuk membuat video palsu yang terlihat sangat meyakinkan.

Oleh karena itu, berhati-hatilah terhadap konten • video atau audio yang mungkin palsu.

• Perhatikan manipulasi informasi

AI dapat digunakan untuk memanipulasi informasi, termasuk foto dan video.

Pastikan untuk memverifikasi keaslian informasi sebelum mempercayainya sepenuhnya.

Dengan tetap waspada dan memahami cara kerja AI, Anda dapat membantu melindungi diri dari penipuan yang melibatkan teknologi ini. (*)

Ikuti Saluran WhatsApp Tribun Kaltim dan Google News Tribun Kaltim untuk pembaruan lebih lanjut tentang berita populer lainnya.

Sumber: Tribun Kaltim
Rekomendasi untuk Anda
Ikuti kami di
AA

Berita Terkini

© 2025 TRIBUNnews.com Network,a subsidiary of KG Media.
All Right Reserved