Bagaimana kami memastikan bahwa kami menggunakan AI secara bertanggung jawab?
Kemajuan dalam pembelajaran mesin menunjukkan bahwa model dapat dengan cepat menskalakan dan memengaruhi sebagian besar masyarakat.
Algoritma mengontrol umpan berita di ponsel semua orang. Pemerintah dan perusahaan mulai menggunakan AI untuk membuat keputusan berdasarkan data.
Ketika AI semakin mendarah daging dalam cara dunia beroperasi, bagaimana kita memastikan bahwa AI bertindak secara adil?
Dalam artikel ini, kita akan melihat tantangan etis dalam menggunakan AI dan melihat apa yang dapat kita lakukan untuk memastikan penggunaan AI yang bertanggung jawab.
Apa itu AI Etis?
AI etis mengacu pada kecerdasan buatan yang mematuhi serangkaian pedoman etika tertentu.
Dengan kata lain, ini adalah cara bagi individu dan organisasi untuk bekerja dengan AI secara bertanggung jawab.
Dalam beberapa tahun terakhir, perusahaan mulai mematuhi undang-undang privasi data setelah bukti penyalahgunaan dan pelanggaran terungkap. Demikian pula, pedoman untuk AI etis direkomendasikan untuk memastikan bahwa AI tidak berdampak negatif pada masyarakat.
Misalnya, beberapa jenis AI bekerja dengan cara yang bias atau melanggengkan bias yang sudah ada. Mari kita pertimbangkan algoritme yang membantu perekrut menyortir ribuan resume. Jika algoritme dilatih pada kumpulan data dengan sebagian besar karyawan pria atau kulit putih, maka mungkin saja algoritme akan mendukung pelamar yang termasuk dalam kategori tersebut.
Menetapkan Prinsip untuk AI yang Etis
Kami telah berpikir untuk menetapkan seperangkat aturan untuk diterapkan pada kecerdasan buatan selama beberapa dekade.
Bahkan di tahun 1940-an, ketika komputer yang paling kuat hanya bisa melakukan perhitungan ilmiah yang paling khusus, penulis fiksi ilmiah telah merenungkan gagasan untuk mengendalikan robot cerdas.
Isaac Asimov terkenal menciptakan Tiga Hukum Robotika, yang ia usulkan dimasukkan ke dalam pemrograman robot dalam cerita pendeknya sebagai fitur keselamatan.
Undang-undang ini telah menjadi batu ujian bagi banyak cerita fiksi ilmiah di masa depan dan bahkan telah menginformasikan studi aktual tentang etika AI.
Dalam penelitian kontemporer, peneliti AI mencari sumber yang lebih kuat untuk menetapkan daftar prinsip AI etis.
Karena AI pada akhirnya akan memengaruhi kehidupan manusia, kita harus memiliki pemahaman mendasar tentang apa yang harus dan tidak boleh kita lakukan.
Laporan Belmont
Untuk titik referensi, peneliti etika melihat Laporan Belmont sebagai panduan. Itu Laporan Belmont adalah dokumen yang diterbitkan oleh US National Institutes of Health pada tahun 1979. Kekejaman biomedis yang dilakukan di WW2 menyebabkan dorongan untuk membuat undang-undang pedoman etika bagi para peneliti yang mempraktikkan kedokteran.
Berikut adalah tiga prinsip dasar yang disebutkan dalam laporan:
- Menghormati orang
- Kemurahan hati
- Keadilan
Prinsip pertama bertujuan untuk menegakkan martabat dan otonomi semua rakyat manusia. Misalnya, peneliti harus meminimalkan peserta yang menipu dan harus meminta setiap orang untuk memberikan persetujuan eksplisit mereka.
Prinsip kedua, beneficence, berfokus pada tugas peneliti untuk meminimalkan potensi bahaya bagi partisipan. Prinsip ini memberi para peneliti tugas untuk menyeimbangkan rasio risiko individu dengan potensi manfaat sosial.
Keadilan, prinsip terakhir yang ditetapkan oleh Laporan Belmont, berfokus pada pemerataan risiko dan manfaat di seluruh kelompok yang dapat memperoleh manfaat dari penelitian. Peneliti mempunyai tugas untuk memilih subjek penelitian dari populasi yang lebih luas. Melakukan hal itu akan meminimalkan bias individu dan sistemik yang dapat berdampak negatif pada masyarakat.
Menempatkan Etika dalam Penelitian AI
Sementara Laporan Belmont terutama ditujukan pada penelitian yang melibatkan subyek manusia, prinsip-prinsipnya cukup luas untuk diterapkan pada bidang etika AI.
Big Data telah menjadi sumber daya yang berharga di bidang kecerdasan buatan. Proses yang menentukan bagaimana peneliti mengumpulkan data harus mengikuti pedoman etika.
Penerapan undang-undang privasi data di sebagian besar negara agak membatasi data yang dapat dikumpulkan dan digunakan oleh perusahaan. Namun, sebagian besar negara masih memiliki seperangkat undang-undang yang belum sempurna untuk mencegah penggunaan AI yang menyebabkan kerugian.
Bagaimana Bekerja dengan AI Secara Etis
Berikut adalah beberapa konsep kunci yang dapat membantu bekerja menuju penggunaan AI yang lebih etis dan bertanggung jawab.
Kontrol untuk Bias
Kecerdasan buatan pada dasarnya tidak netral. Algoritma selalu rentan terhadap bias dan diskriminasi yang disisipkan karena data yang dipelajarinya mengandung bias.
Contoh umum dari AI diskriminatif adalah jenis yang sering muncul dalam sistem pengenalan wajah. Model-model ini sering berhasil mengidentifikasi wajah pria kulit putih, tetapi kurang berhasil mengenali orang dengan kulit lebih gelap.
Contoh lain muncul di DALL-E 2 OpenAI. Pengguna memiliki ditemukan bahwa permintaan tertentu sering kali mereproduksi bias gender dan rasial yang diambil model dari kumpulan data gambar online.
Misalnya, ketika diberikan prompt untuk gambar pengacara, DALL-E 2 mengembalikan gambar pengacara pria. Di sisi lain, permintaan foto pramugari kebanyakan dikembalikan oleh pramugari perempuan.
Meskipun tidak mungkin untuk sepenuhnya menghilangkan bias dari sistem AI, kami dapat mengambil langkah-langkah untuk meminimalkan efeknya. Peneliti dan insinyur dapat mencapai kontrol bias yang lebih besar dengan memahami data pelatihan dan mempekerjakan tim yang beragam untuk memberikan masukan tentang cara kerja sistem AI.
Pendekatan desain yang berpusat pada manusia
Algoritma pada aplikasi favorit Anda dapat berdampak negatif pada Anda.
Platform seperti Facebook dan TikTok dapat mempelajari konten apa yang akan disajikan agar pengguna tetap berada di platform mereka.
Bahkan tanpa niat untuk membahayakan, tujuan untuk membuat pengguna terpaku pada aplikasi mereka selama mungkin dapat menyebabkan masalah kesehatan mental. Istilah 'doomscrolling' telah meningkat popularitasnya sebagai istilah umum untuk menghabiskan banyak waktu membaca berita negatif di platform seperti Twitter dan Facebook.
Dalam kasus lain, konten kebencian dan informasi yang salah menerima platform yang lebih luas karena membantu meningkatkan keterlibatan pengguna. SEBUAH 2021 studi dari para peneliti di New York University menunjukkan bahwa posting dari sumber yang dikenal dengan informasi yang salah mendapatkan enam kali lebih banyak suka daripada sumber berita terkemuka.
Algoritma ini kurang dalam pendekatan desain yang berpusat pada manusia. Insinyur yang merancang bagaimana AI melakukan suatu tindakan harus selalu mengingat pengalaman pengguna.
Peneliti dan insinyur harus selalu mengajukan pertanyaan: 'bagaimana hal ini bermanfaat bagi pengguna?'
Sebagian besar model AI mengikuti model kotak hitam. Sebuah kotak hitam di Mesin belajar mengacu pada AI di mana tidak ada manusia yang dapat menjelaskan mengapa AI sampai pada hasil tertentu.
Kotak hitam bermasalah karena mengurangi jumlah kepercayaan yang dapat kita berikan pada mesin.
Sebagai contoh, mari kita bayangkan sebuah skenario di mana Facebook merilis sebuah algoritma yang membantu pemerintah melacak penjahat. Jika sistem AI menandai Anda, tidak ada yang bisa menjelaskan mengapa itu membuat keputusan itu. Jenis sistem ini seharusnya tidak menjadi satu-satunya alasan mengapa Anda harus ditangkap.
AI atau XAI yang dapat dijelaskan harus mengembalikan daftar faktor yang berkontribusi pada hasil akhir. Kembali ke pelacak kriminal hipotetis kami, kami dapat mengubah sistem AI untuk mengembalikan daftar posting yang menunjukkan bahasa atau istilah yang mencurigakan. Dari sana, manusia dapat memverifikasi apakah pengguna yang ditandai layak untuk diselidiki atau tidak.
XAI memberikan lebih banyak transparansi dan kepercayaan pada sistem AI dan dapat membantu manusia membuat keputusan yang lebih baik.
Kesimpulan
Seperti semua penemuan buatan manusia, kecerdasan buatan pada dasarnya tidak baik atau buruk. Cara kita menggunakan AI itulah yang penting.
Yang unik dari kecerdasan buatan adalah kecepatan pertumbuhannya. Dalam lima tahun terakhir, kami telah melihat penemuan baru dan menarik di bidang pembelajaran mesin setiap hari.
Namun, hukum tidak secepat itu. Karena perusahaan dan pemerintah terus memanfaatkan AI untuk memaksimalkan keuntungan atau menguasai warga, kita harus menemukan cara untuk mendorong transparansi dan kesetaraan dalam penggunaan algoritme ini.
Apakah menurut Anda AI yang benar-benar etis itu mungkin?
Tinggalkan Balasan