Algoritme Twitter itu rasis, atau datanya?

Kecerdasan buatan Twitter itu rasis. Itulah pesan yang akan diterima banyak pengguna. Karena dalam publikasi baru-baru ini, ketika gambar dipangkas secara otomatis untuk menunjukkan apa yang dianggap paling relevan, orang yang muncul selalu yang berkulit putih dan bukan hitam.

Apakah AI rasis?

Pangkas gambar Twitter

Seperti yang telah kami katakan kepada Anda, Twitter telah lama menawarkan kemampuan untuk memangkas gambar dengan cara yang cerdas. Ini didasarkan pada serangkaian pola dan data yang dengannya, berkat fungsi ini, Anda tidak perlu khawatir tentang bagaimana gambar akan terlihat di timeline pengguna lain saat mereka meninjau apa yang diikuti pengguna atau tweet lain yang telah dipublikasikan yang muncul di dia.

Mereka akan selalu melihat yang paling menarik. Atau, setidaknya, apa yang menurut AI harus memiliki bobot dan relevansi lebih untuk menarik pengguna yang melihat publikasi Anda di platform tersebut. Jika aplikasi resmi digunakan, karena klien Twitter lain tidak berfungsi.

Namun, kini ada yang menganggap demikian AI Twitter itu rasis. Karena setelah percobaan kecil yang dilakukan oleh pengguna seperti @bascule atau @JackCouvela, kliping selalu berlaku untuk orang kulit putih. Artinya, baik Barack Obama maupun Chadwick Boseman (aktor yang memerankan Black Panther) tidak pernah muncul meskipun dalam gambar yang sama, tidak pernah dipotong sehingga merekalah yang terlihat dalam tampilan garis waktu yang diperkecil.

https://twitter.com/JackCouvela/status/1307602747718594563?s=20

Penasaran? Ya banyak, apalagi tidak masalah urutannya diubah dan wajah Barack Obama ada di atas, bawah, atau tengah. Bahkan detail seperti warna dasi atau elemen lainnya diubah untuk melihat apakah diperhitungkan atau tidak. Selalu orang kulit putih yang tampaknya paling relevan.

AI tidak rasis, itu datanya

Dengan semua ini, mudah untuk berpikir bahwa AI Twitter, bukan? Bahkan semua AI. Tapi itu tidak benar, atau itu tidak benar. Kecerdasan buatan hanya memperhitungkan data yang diperkenalkan oleh mereka yang bertanggung jawab atas perkembangannya. Jika indikasi lain diberikan di pangkalan, saat mereka belajar mereka akan mempertimbangkan nilai yang berbeda dan dalam potongan jenis ini bisa jadi Barack Obama atau Boseman yang akan muncul.

Oleh karena itu, datanya rasis dan bukan AI. Juga sangat sulit untuk menyelesaikan jenis perilaku ini. Kriteria apa yang harus mereka ikuti untuk memilih jika ada dua orang? Salah satu solusinya bisa berdasarkan popularitas, tapi rumit, karena cara mengukurnya. Dan jika mereka adalah orang-orang yang sama sekali bukan untuk kepentingan umum. Dan jika didasarkan pada ukuran atau proporsi, warna pakaian... sulit untuk menetapkan kriteria yang menyenangkan semua orang.

Oleh karena itu, memang benar AI harus terus dilatih dengan cara yang menghindari bias dan perilaku rasis, namun akan selalu ada situasi yang menimbulkan kontroversi bagi salah satu pihak.


Ikuti kami di Google Berita

tinggalkan Komentar Anda

Alamat email Anda tidak akan dipublikasikan. Bidang yang harus diisi ditandai dengan *

*

*

  1. Bertanggung jawab atas data: Actualidad Blog
  2. Tujuan data: Mengontrol SPAM, manajemen komentar.
  3. Legitimasi: Persetujuan Anda
  4. Komunikasi data: Data tidak akan dikomunikasikan kepada pihak ketiga kecuali dengan kewajiban hukum.
  5. Penyimpanan data: Basis data dihosting oleh Occentus Networks (UE)
  6. Hak: Anda dapat membatasi, memulihkan, dan menghapus informasi Anda kapan saja.