Insite

Penguatan Desain Implementasi Rancangan Perpres Etika Kecerdasan Artifisial melalui Self-Assessment, Tata Kelola Sektoral, dan Mitigasi Risiko Sosial-Ekonomi

Oleh: Digital Transformation; Data Protection & Governance Practice Group

Perkembangan dan pemanfaatan Kecerdasan Artifisial (Artificial Intelligence/AI) pada satu dekade terakhir telah menjadikannya infrastruktur strategis yang mempengaruhi layanan publik, industri, hingga tata kelola pemerintahan. Oleh karena itu, penyusunan Rancangan Peraturan Presiden tahun 2025 tentang Etika Kecerdasan Artifisial merupakan langkah progresif Pemerintah Indonesia untuk menghadirkan kompas normatif berbasis nilai.

Sebagai refleksi atas dinamika risiko global, Global Risks Report 2026 yang diterbitkan oleh World Economic Forum menunjukkan bahwa adverse AI technologies berada pada peringkat ke-30 dalam dua tahun, namun melonjak ke peringkat ke-5 dalam proyeksi sepuluh tahun ke depan. Data ini menunjukkan bahwa risiko terkait AI belum dipersepsikan sebagai hal paling mendesak dalam jangka sangat pendek. Oleh karenanya, penguatan desain regulasi nasional tidak hanya relevan dari perspektif etika, tetapi juga penting sebagai strategi mitigasi risiko struktural jangka panjang.

Meninjau peningkatan risiko global terkait tata kelola teknologi dan etika penggunaannya perlu dilengkapi dengan perspektif hukum, manajemen risiko, serta mitigasi dampak sosial-ekonomi yang lebih komprehensif. Tulisan ini menawarkan sejumlah catatan dan rekomendasi strategis untuk memperkuat Rancangan Peraturan Presiden Tahun 2025 tentang Etika Kecerdasan Artifisial Tahun 2025, dengan merujuk pada praktik regulasi internasional dan perkembangan risiko global yang aktual.

Etika Kecerdasan Artifisial dalam Konteks Hukum Nasional

Sebelum penyusunan Rancangan Peraturan Presiden Tahun 2025 tentang Etika Kecerdasan Artifisial, Indonesia telah memiliki sejumlah instrumen kebijakan yang menjadi fondasi awal tata kelola AI nasional. Namun, instrumen-instrumen tersebut masih cenderung sektoral, sehingga belum membentuk kerangka regulasi nasional yang terintegrasi dan operasional.

Pertama, Surat Edaran Menkominfo Nomor 9 Tahun 2023 merupakan pedoman awal yang menetapkan sembilan nilai etika bagi Penyelenggara Sistem Elektronik. Meski penting sebagai rujukan normatif, instrumen ini masih berkarakter soft regulation karena tidak disertai mekanisme penegakan dan sanksi langsung. Akibatnya, tingkat kepatuhan sangat bergantung pada komitmen internal penyelenggara dan praktik pengawasan yang berbeda-beda.

Kedua, pada level strategis, Strategi Nasional Kecerdasan Artifisial (STRANAS KA) 2020–2045 memberi arah pengembangan AI secara jangka panjang, termasuk penguatan riset, pengembangan talenta, dan penguatan ekosistem inovasi. Namun, STRANAS KA tetap merupakan dokumen kebijakan strategis yang belum mengikat secara hukum,
sehingga efektivitasnya sangat ditentukan oleh konsistensi implementasi lintas kementerian/lembaga dan keberlanjutan program.

Ketiga, di sektor keuangan, Panduan Tata Kelola Kecerdasan Artifisial Perbankan Indonesia 2025 yang diterbitkan OJK menunjukkan langkah yang lebih operasional melalui pendekatan manajemen risiko dan penekanan pada pengawasan manusia (human oversight). Panduan ini mengindikasikan bahwa sektor tertentu mulai bergerak menuju
tata kelola AI yang lebih terukur.

Secara keseluruhan, keberadaan berbagai instrumen tersebut memperlihatkan bahwa tata kelola AI di Indonesia masih berkembang secara fragmentaris. Oleh karena itu, Rancangan Perpres Etika Kecerdasan Artifisial menjadi krusial bukan hanya sebagai kompas nilai,
tetapi juga sebagai kerangka payung yang menyatukan prinsip dan mengarahkan desain implementasi lintas sektor agar lebih konsisten, akuntabel, dan dapat diawasi.

Dimensi Sosial-Ekonomi Regulasi Kecerdasan Artifisial

Rancangan Perpres mengakui bahwa AI berpotensi menimbulkan risiko yang mempengaruhi kesejahteraan sosial, ekonomi, pendidikan, serta kesenjangan akses. Pada bagian langkah perlindungan, Rancangan Perpres menegaskan bahwa pengembangan AI harus “menguatkan keahlian manusia, bukan menumpulkan kemampuan manusia”. Pernyataan ini merefleksikan kesadaran bahwa transformasi AI dapat mengubah struktur pasar kerja, distribusi kesempatan, dan dinamika produktivitas.

Namun, pengakuan normatif tersebut belum diikuti desain kelembagaan yang secara eksplisit
memetakan, memantau, dan mengelola dampak ketenagakerjaan akibat otomatisasi dan adopsi AI. Mekanisme penilaian dampak sosial masih cenderung berbentuk self-assessment oleh pelaku sektor, tanpa kewajiban audit eksternal untuk sistem tertentu atau sistem pemantauan nasional atas perubahan struktur pekerjaan dan keterampilan.

Kekosongan mandat ini menjadi krusial dalam konteks bonus demografi Indonesia. Bonus demografi dapat menjadi peluang pertumbuhan apabila peningkatan produktivitas diiringi transisi keterampilan yang memadai. Namun, apabila adopsi AI mempercepat pergeseran profesi tanpa kesiapan reskilling/upskilling, maka risiko skills mismatch berpotensi meningkat dan menghambat optimalisasi bonus demografi.

Di sektor pendidikan dan riset, STRANAS KA mendorong penerapan AI melalui pembelajaran presisi dan personalisasi berbasis data. Akan tetapi, agenda tersebut belum secara eksplisit terhubung dengan strategi transisi tenaga kerja nasional. Tanpa sinergi yang lebih kuat antara kebijakan ketenagakerjaan, reformasi pendidikan, dan kebutuhan industri, tata kelola AI berisiko berhenti pada etika deklaratif dan belum sepenuhnya menjawab
tantangan keadilan transisi dalam era digital.

Model Regulasi Kecerdasan Artifisial Global dan Relevansinya bagi Indonesia

Perkembangan regulasi AI global menunjukkan variasi pendekatan dalam merespons peluang dan risiko teknologi. Secara sederhana, orientasi tersebut dapat dikelompokkan menjadi tiga model:

  1. Model komprehensif berbasis risiko (hard law)
  2. Model tata kelola berbasis prinsip dan sukarela (governance-based)
  3. Model administratif terarah dengan kontrol negara yang kuat

Model Komprehensif Berbasis Risiko dari Uni Eropa

Uni Eropa merepresentasikan pendekatan komprehensif berbasis risiko melalui Artificial Intelligence Act. Regulasi ini mengklasifikasikan sistem AI ke dalam beberapa tingkat risiko, seperti unacceptable risk, high risk, dan limited risk. Sistem yang tergolong berisiko tinggi diwajibkan memenuhi standar kepatuhan ketat, termasuk dokumentasi teknis, pengujian, serta proses conformity assessment sebelum sistem beredar luas.

Kelebihan model ini adalah kepastian hukum serta perlindungan hak fundamental melalui mekanisme penegakan dan sanksi administratif. Karakter utamanya terletak pada pengelolaan risiko secara ex-ante (sebelum sistem digunakan luas). Namun, model ini juga menimbulkan perdebatan mengenai beban kepatuhan (regulatory burden), terutama bagi pelaku usaha kecil
dan menengah. Tantangan interpretatif juga muncul dalam konteks model General Purpose AI (GPAI), termasuk definisi “substantial modification” yang dapat mempengaruhi kewajiban kepatuhan dalam rantai nilai AI.

Model Tata Kelola Berbasis Prinsip dari Singapura

Berbeda dengan Uni Eropa, Singapura mengembangkan pendekatan sukarela dan berbasis prinsip melalui Model AI Governance Framework oleh IMDA. Pendekatan ini didukung instrumen seperti AI Verify dan regulatory sandbox, serta regulasi sektoral (misalnya sektor keuangan oleh Monetary Authority of Singapore). Keunggulan model ini adalah fleksibilitas dan adaptivitas terhadap inovasi, dengan pengawasan yang dapat berkembang secara iteratif.

Model Administratif Terarah dari Tiongkok

Tiongkok mengembangkan pendekatan administratif terarah dengan kontrol negara yang kuat melalui regulasi spesifik seperti Generative AI Measures, termasuk kewajiban pelabelan konten AI, mekanisme security review, dan kewajiban moderasi yang ketat. Karakter utamanya adalah orientasi pada stabilitas sosial dan keamanan nasional.

Relevansi Implementasi Regulasi Global di Indonesia

Pelajaran utama dari variasi model global adalah bahwa efektivitas tata kelola AI tidak hanya ditentukan oleh deklarasi nilai etis, tetapi juga oleh desain implementasi yang operasional. Dalam konteks Indonesia, beberapa elemen yang dapat diadopsi secara selektif adalah:

  1. Kewajiban kepatuhan lebih mengikat untuk sistem berisiko tinggi, seperti audit independen dan registrasi nasional sebelum peluncuran, agar klasifikasi risiko bertransformasi menjadi instrumen pengendalian nyata.
  2. Integrasi regulatory sandbox dan alat uji teknis terstandar untuk menyeimbangkan pengawasan dan inovasi, sekaligus menyediakan ruang pembelajaran regulatif yang aman.
  3. Kewajiban pelabelan konten AI dan security review sebelum sistem berisiko tinggi dioperasikan secara luas untuk memperkuat transparansi dan akuntabilitas.

Dengan integrasi selektif (tanpa mengadopsi kontrol negara yang berlebihan), Indonesia berpeluang membangun tata kelola AI yang akuntabel, adaptif, dan responsif terhadap risiko sosial-ekonomi.

Kebutuhan Self-Assessment dan Tata Kelola AI Sektoral pada Implementasi Rancangan Perpres

Dalam Rancangan Perpres, Pasal 5 ayat (3) mewajibkan pelaku sektor menerapkan manajemen dan mitigasi risiko serta menjamin transparansi dan akuntabilitas sepanjang siklus hidup sistem AI. Sementara itu, Pasal 5 ayat (4) menugaskan kementerian/lembaga menyusun kebijakan sektoral dan kerangka pengawasannya. Ketentuan ini mengimplikasikan perlunya mekanisme self-assessment yang sistematis, serta tata kelola sektoral berbasis risiko yang konsisten lintas sektor.

Pada skala global, penerjemahan prinsip etika AI ke praktik organisasi umumnya dilakukan melalui pendekatan sistem manajemen berbasis risiko. Salah satu rujukan penting adalah ISO/IEC 42001 tentang Artificial Intelligence Management System yang menekankan identifikasi dan penilaian risiko, dokumentasi teknis, audit internal, serta perbaikan berkelanjutan.

Berdasarkan pendekatan tersebut, berikut action items yang relevan untuk dipertimbangkan dalam desain implementasi Rancangan Perpres.

Tabel 1. Action Items bagi Pelaku Sektor dan Kementerian/Lembaga
Pelaku SektorKementerian/Lembaga
  • Melakukan inventarisasi dan klasifikasi sistem AI yang digunakan dalam kegiatan usaha atau layanan publik.
  • Menyusun mekanisme AI risk assessment dan AI impact assessment sebelum sistem dioperasikan secara luas.
  • Menetapkan kebijakan internal tata kelola AI serta menunjuk penanggung jawab dengan otoritas jelas dalam pengambilan keputusan.
  • Melakukan dokumentasi teknis dan prosedural (pengembangan, pengujian, validasi, serta aktivitas sistem) untuk mendukung transparansi dan akuntabilitas.
  • Mengembangkan mekanisme monitoring dan evaluasi berkala, audit internal, serta prosedur korektif apabila ditemukan ketidaksesuaian atau insiden.
  • Menyusun pedoman sektoral berbasis risiko sesuai karakteristik sektor (kesehatan, pendidikan, keuangan, ketenagakerjaan, dll.).
  • Mengembangkan template/instrumen self-assessment untuk mengukur kepatuhan terhadap nilai etika AI dan prinsip manajemen risiko.
  • Membangun mekanisme monitoring dan evaluasi kepatuhan terintegrasi, termasuk peluang audit eksternal untuk sistem berisiko tinggi.
  • Memperkuat koordinasi lintas sektor untuk pemantauan dampak sosial-ekonomi AI, termasuk pergeseran profesi dan kebutuhan reskilling.
  • Meningkatkan kapasitas aparatur negara dalam manajemen risiko AI dan tata kelola berbasis data (standar, audit, pengawasan, evaluasi).

Sumber: Diolah dari analisis penulis dengan merujuk pada A-LIGN (Understanding ISO 42001) dan Lucy (Overview of ISO/IEC 42001 – AI Management System and Conformity Assessment).

Implementasi Rancangan Peraturan Presiden Tahun 2025 tentang Etika Kecerdasan Artifisial memerlukan langkah konkret yang melampaui perumusan prinsip normatif. Self-assessment oleh Pelaku Sektor serta penyusunan tata kelola sektoral berbasis risiko oleh Kementerian/Lembaga menjadi prasyarat utama agar regulasi tidak berhenti pada etika deklaratif. Melalui pendekatan yang terstruktur, terukur, dan berkelanjutan, Indonesia berpeluang membangun tata kelola AI nasional yang adaptif menyeimbangkan inovasi dengan mitigasi risiko sosial-ekonomi secara akuntabel.

DAFTAR PUSTAKA

A-LIGN. Understanding ISO 42001: The world’s first AI management system standard.

https://www.a-lign.com/articles/understanding-iso-42001

Badan Pengkajian dan Penerapan Teknologi (BPPT). (2020).
Strategi Nasional Kecerdasan Artifisial Indonesia 2020–2045. Jakarta: BPPT.

Endal, Ø., Veric, A., Nag, S., Malter, N., & Araz, D. (2025, November 5).
Modifying AI Under the EU AI Act: Lessons from Practice on Classification and Compliance.

https://artificialintelligenceact.eu/modifying-ai-under-the-eu-ai-act/

European Parliament. (2023).
EU AI Act: First regulation on artificial intelligence. News of the European Parliament.

Herbert Smith Freehills Kramer. (2026).
PRC: AI Tracker. HSFK Insights. Diambil pada 13 Februari 2026, dari

https://www.hsfkramer.com/insights/reports/ai-tracker/prc

Herbert Smith Freehills Kramer. (2026).
Singapore: AI Tracker. HSFK Insights. Diambil pada 13 Februari 2026, dari

https://www.hsfkramer.com/insights/reports/ai-tracker/singapore

Kementerian Sekretariat Negara Republik Indonesia. (2025).
Rancangan Peraturan Presiden tentang Etika Kecerdasan Artifisial. Jakarta: Kementerian Sekretariat Negara.
Lucy, K.
Overview of ISO/IEC 42001 (AI Management System) and AI system conformity assessment.
Regulatory Governance Council, Microsoft.
Otoritas Jasa Keuangan. (2025).
Panduan Tata Kelola Kecerdasan Artifisial Perbankan Indonesia. Jakarta: Otoritas Jasa Keuangan.
World Economic Forum. (2026).
The Global Risks Report 2026 (21st ed.). Geneva: World Economic Forum. ISBN: 978-2-940631-60-5.

Follow Us

INSITE delivers impactful and sustainable solutions to empower governments, organizations, and communities.

What We Do?​

Scroll to Top