
10 Sep Tantangan Mencegah Bias dan Kurangnya Transparansi pada Pemanfaatan AI di Industri Testing, Inspection, dan Certification
Di era globalisasi yang diwarnai transformasi digital, industri testing, inspection & certification (TIC), berperan sebagai agen yang mewujudkan kepercayaan banyak pihak. Kepercayaan dalam skema rantai pasok global. Proses produksi yang berlangsung lintas negara –sering terpisah jarak yang sangat jauh– tetap dituntut melakukan real time process. Perusahaan perangkat selular seperti Samsung, i-phone, juga perusahaan otomotif seperti Tesla maupun BYD –yang komponennya dipasok produsen seluruh dunia— tak memberinya alasan untuk melakukan proses produksi dengan jeda. Kontrol digital kemudian ditambahkan, untuk mengendalikan seluruh pemenuhan target produksinya.
Tuntutan real time, juga disikapi dengan strategi outsourcing -berelasi dengan pihak eksternal— dan insourcing –mengandalkan peran internal– sebagai penyedia kebutuhan perusahaan. Proses produksinya tak hanya mengandalkan satu perusahaan untuk menghasilkan suatu komoditas. Pada sistem produksi selular misalnya, terdapat pemasok komponen hardware, pemasok komponen software, pemasok sistem keamanan, pemasok jasa pergudangan, pemasok sistem pengemasan, hingga pemasok jasa pemasaran. Dan tak jarang, para pemasok itu juga mengonsumsi produk akhirnya. Rantai pasok global membentuk ekosistem yang saling melayani. Masing-masing agen saling mengandalkan dengan syarat tertentu.
Dari uraian di atas –walaupun implisit– terdapat keterkaitan antar pemasok yang diperantarai standar yang harus dipatuhi. Adanya standar dalam skema outsourcing–insourcing ini, agar tak terjadi penundaan yang memperlambat produksi. Penundaan dapat terjadi oleh pemeriksaan kesesuaian antar komponen saat akan digabung dengan komponen lain. Agen yang independen memastikan terpenuhinya standar itu, adalah perusahaan yang bergerak di bidang TIC.
Lingkup kerja perusahaan TIC, meliputi audit pemenuhan standar obyektif. Dilakukan terhadap standar kualitas produk dan sistem produksi, standar tak membahayakan kesehatan, standar keamanan, hingga dipatuhinya standar lingkungan. Dan hari ini, berkembang pemenuhan standar keamanan data, maupun standar tak terjadinya tindakan penyuapan. Dengan makin tak terhindarkannya integrasi Artificial Intelligence (AI) ke dalam proses TIC, muncul tantangan yang tak hanya bersifat teknis, namun juga bersifat etis.
Tantangan etika dalam integrasi AI diindustri TIC, menyangkut bias dan transparansi proses. Perusahaan TIC yang hendak menerbitkan sertifikat –sebagai rangkaian pengujian dan inspeksi— secara otomatis berhadapan dengan persoalan etika itu. Wilberforce Murikah, Jeff Kimanga Nthenge, Faith Mueni Musyoka, 2024, dalam “Bias and Ethics of AI Systems Applied in Auditing – A Systematic review”, lewat penelitiannya mengkonfirmasi keadaan itu. Dikatakan ketiganya, integrasi AI dalam proses audit walaupun berpotensi meningkatkan efisiensi dan diperolehnya wawasan dari data yang kompleks, namun menghadirkan tantangan bias algoritmik, transparansi, akuntabilitas, dan diskriminasi.
Bias algoritmik terjadi tanpa sepenuhnya disadari. Ini berlangsung sejak terinputnya data yang digunakan untuk pelatihan machine learning. Manakala data –ini termasuk yang memuat keragaman suku bangsa, variasi gender, perbedaan agama dan budaya— terinput tanpa merepresentasikan komposisi yang proporsional, menyebabkan bias algoritmik. Analoginya, ketika pada satu kantong tertutup diisi sepuluh kelereng, dan biru merupakan warna yang paling banyak maka peluang terambilnya warna biru menjadi paling besar. Peluang semua warna untuk mendapat kesempatan yang sama terambil, jadi terganggu. Algoritma yang diisi data yang tak proporsional itu, akan mengalami bias.
Maka dalam penerapannya, misalnya data yang terinput di sistem pengujian dan inspeksi bidang furniture, sering ditemukan sebagai perusahaan yang kualitasnya rendah, algoritmanya akan terbentuk: perusahaan furniture berstandar kualitas rendah. Dalam penerbitan sertifikasi otomatisnya, perusahaan furniture akan dinilai sebagai perusahaan berkualitas rendah. Ini akan merugikan, ketika dalam audit analognya tidak selalu seperti itu. Otomatisasi yang mengintegrasikan AI, justru menyebabkan bias penilaian.
Lebih rinci soal bias ini, Dimitri Mahayana, 2024, dalam “Tiga Bias Berbahaya AI dan Solusinya” menyebut bias-bias yang mengancam pemanfaatan AI. Masing-masing –kurang lebih– pertama, bias sistemik. Ini terjadi ketika (algoritma) AI, dihasilkan melalui prosedur dan praktik yang dijalankan institusi tertentu. Institusi ini beroperasi dengan mengakibatkan kelompok sosial tertentu diuntungkan, sedangkan yang lain dirugikan. Hal ini belum tentu merupakan akibat dari prasangka atau diskriminasi yang disadari. Tapi dapat terjadi akibat diikutinya aturan atau norma yang ada. Rasisme institusional dan seksisme adalah contoh paling umum. Kepolisian Amerika, sering menganggap orang kulit hitam sebagai biang keributan. Implikasinya, ketika terjadi keributan prasangka serta merta dijatuhkan pada kelompok ini.
Kedua, bias statistik dan komputasi. Ini berasal dari kesalahan (algoritma) AI, yang dihasilkan ketika sampel tak merepresentasikan populasi. Sama seperti analogi memasukkan kelereng warna biru di atas. Kelereng biru lebih banyak dari lainnya. Bias muncul dari kesalahan sistematis yang bertentangan dengan kesalahan acak, dan dapat terjadi tanpa adanya prasangka, keberpihakan, atau niat diskriminatif. Penilaian pada perusahaan bidang furniture, yang dianggap standar kualitasnya rendah akibat bias statistik dan komputasi ini.
Ketiga, bias manusia, yakni kesalahan sistematis dalam pemikiran manusia berdasarkan sejumlah prinsip heuristik saat melakukan penilaian secara sederhana. Dalam “Thinking, Fast and Slow”, Daniel Kahneman, 2011, memperkenalkan 2 sistem berpikir manusia, yaitu, sistem 1 dan sistem 2. Sistem 1 bersifat cepat, menempuh jalan pintas dengan rasionalitas yang rendah. Ini lazim disebut sebagai heuristik. Sedangkan Sistem 2, bersifat lebih berhati-hati, saksama, dan rasional.
Manusia dengan pengalaman berulangnya –terlibat dengan data sejenis—mengandalkan Sistem 1. Ini berupa penilaian berdasar pengalaman sebelumnya. Namun seringkali penilaian dengan cara ini, menyebabkan bias. Contohnya bias dalam sistem pengenalan wajah. Sistem ini sering gagal mengenali variasi individu –dari kelompok etnis tertentu– akibat data pada machine learning yang hanya berisi data wajah etnis tertentu. Dalam konteks integrasi AI pada industri TIC, bias berdampak pada sistem inspeksi visual otomatis yang hasilnya tidak akurat.
Sedangkan persoalan transparansi, muncul saat sistem audit berbasis AI menilai, tapi tak sepenuhnya dimengerti dasar penilaiannya. Kasus transparansi yang kerap terjadi: saat AI digunakan untuk memutuskan diterima atau ditolaknya kredit perbankan, proses rekrutmen pegawai, rekomendasi penetapan hukuman pada narapidana kambuhan, penyusunan rencana alokasi tenaga pengaman di titik rawan kriminal. Dasar penilaiannya tak dipahami, bahkan oleh perancang kecerdasannya. Keputusan macam ini, ketika diterapkan dalam audit otomatis industri TIC, tak memenuhi tuntutan transparansi.
Pada kedua tantangan di atas, tampak: keputusan mengintegrasikan AI di industri TIC, dapat bermasalah secara etika. Bias maupun tak terpenuhinya transparansi, mengakibatkan diskriminasi seperti pada perusahaan furniture di atas. Dengan keputusan diskriminatif, tak ada akuntabilitas. Akibat tak ada yang jelas tanggung jawabnya, ketika keputusannya merugikan. Industri TIC yang diandalkan sebagai penopang kepercayaan banyak pihak dalam rantai pasok global, gagal memenuhi fungsinya.
Meminimalkan terjadinya persoalan bias dan transparansi yang berimplikasi pada diskriminasi dan akuntabilitas, sesuai dengan “Recommendation on the Ethics of Artificial Intelligence” yang diterbitkan UNESCO, 2021. Lembaga dunia ini menyebut: perlindungan hak asasi dan martabat manusia, merupakan dasar rekomendasi. Perlindungan itu menyangkut diterapkannya prinsip transparansi dan terbebasnya dari bias, dengan pengawasan manusia terhadap sistem AI. Dalam konteks penerapannya di industri TIC, berarti algoritma AI harus bebas bias, transparan –dapat dijelaskan keputusannya kepada semua pihak—sehingga mencegah diskriminasi. Seluruhnya agar keputusan yang dihasilkan dengan integrasi AI, punya akuntabilitas.
Meski AI yang diintegrasikan pada industri TIC menjanjikan efisiensi proses, pemeriksaan dapat dilakukan tanpa merusak obyek yang diperiksa, dan sejak awal mencegah kesalahan melalui pendekatan pemodelan. Seluruhnya menjanjikan akurasi proses yang tinggi. Namun serta merta mengasumsikan AI bebas dari kesalahan, dapat menjebak penggunanya pada situasi yang disebut sebagai the illusion of perfection, membayangkan AI selalu sempurna. Ini dapat melenakan dari risiko laten, yang perlu dikaji dengan bijaksana. Bahkan berbagai persoalan AI terangkum dengan sebutan AI black box, lantaran tak seluruh persoalan –kegagalan maupun keandalannya– telah dipahami. Implikasinya, juga dapat menyebabkan risiko yang tak terduga. Setidaknya dari tantangan yang mengemuka di atas –bias dan kurangnya transparansi– menjadi persoalan etika yang perlu segera memperoleh jalan keluarnya. Sebab jika tidak, bukankah integrasi AI yang tak murah bakal gagal memenuhi tuntutan akuntabilitasnya?