4. AI Hardware, AI on Edge, AI Software Tools
Pada umumnya algoritma Kecerdasan Artifisial, dan secara khusus machine learning dan deep learning, memerlukan kemampuan komputasi yang tinggi. CPU (Central Processing Unit) merupakan prosesor yang bersifat untuk kebutuhan umum, tidak dioptimasi secara khusus untuk machine learning dan deep learning. GPU (Graphical Processing Unit) merupakan prosesor yang pada awalnya dibuat untuk pengolahan grafis, seperti gambar dan video.
Namun karena mengandung sejumlah unit pengolahan yang bekerja secara paralel (CUDA cores), GPU juga sangat efektif digunakan sebagai platform perangkat keras untuk machine learning dan deep learning dengan bantuan compiler. Berbagai jenis dan generasi GPU dari NVIDIA merupakan platform yang banyak digunakan di industri baik untuk pengembangan maupun penyebaran model Kecerdasan Artifisial.
Google memperkenalkan TPU (Tensor Processor Unit) sebagai platform komputasi yang mendukung dan secara khusus dikembangkan untuk perhitungan yang melibatkan deep learning, yang secara matematis dapat secara efektif direpresentasikan dalam bentuk tensor (vektor berdimensi banyak). Belakangan beberapa pihak memperkenalkan NPU (Neural Processing Unit) -- suatu pengolah yang khusus dirancang untuk komputasi deep learning.
Beberapa pendekatan lain untuk mempercepat perhitungan Kecerdasan Artifisial -- dikenal sebagai AI accelerator chips -- dikembangan dengan teknologi FPGA (Field Programmable Gate Array) dan ASICs (Application Specific Integrated Circuits). Beberapa peneliti mengembangkan arsitektur cluster berbasis CPU untuk mengeksekusi algoritma Kecerdasan Artifisial, dan membandingkannya dengan penggunaan GPU.
Selain masalah kecepatan komputasi, hal lain yang perlu dipertimbangkan dalam pemilihan platform perangkat keras untuk perhitungan algoritma Kecerdasan Artifisial adalah konsumsi daya listrik yang dibutuhkan, termasuk panas yang dihasilkan oleh prosesor dari berbagai platform ini. Idealnya tersedia platform komputasi dengan kecepatan komputasi yang tinggi untuk berbagai algoritma Kecerdasan Artifisial, namun dengan penggunaan daya yang rendah.
Aspek lain dalam perangkat keras dan perangkat lunak Kecerdasan Artifisial adalah lazimnya proses pelatihan dan inferensi dapat dilakukan di suatu server (on premise) ataupun dieksekusi di Cloud. Beberapa penyedia jasa Cloud seperti AWS dan Google menyediakan fasilitas yang memudahkan untuk mengelola proses pengumpulan dataset, pelatihan, pengembangan dan penyebaran Kecerdasan Artifisial di Cloud.
Perkembangan dewasa ini mengarah kepada “AI on Edge” -- suatu paradigma komputasi dimana Kecerdasan Artifisial bukan pada server/cloud, tetapi pada komputer berukuran kecil (kompak) dan ringan -- umumnya berbentuk embedded system -- dengan kemampuan komputasi yang umumnya lebih rendah dibandingkan dengan proses yang digunakan pada server/cloud. Saat ini fokusnya lebih pada sisi inferensi, sementara proses pelatihan masih dieksekusi pada komputer dengan kemampuan komputasi yang lebih besar.
Baca juga: Cara Belajar Coding untuk Pemula yang Bisa Langsung Dipraktikkan
Namun ke depan yang ingin dicapai oleh paradigma baru ini adalah bahwa proses pelatihan dan inferensi keduanya dilakukan pada platform kompak dan ringan yang sama. Untuk mencapai ini diperlukan optimasi baik dari sisi perangkat keras maupun perangkat lunak.
MENURUT ARTIKEL WALL STREET JOURNAL, PADA TAHUN 2018 JUMLAH PERUSAHAAN YANG MELAPORKAN KECERDASAN ARTIFISIAL SEBAGAI FAKTOR RISIKO MENINGKAT SEBANYAK DUA KALI DIBANDINGKAN TAHUN SEBELUMNYA.
5. Trustworthy AI: explainability, fairness, accountability, security, privacy, robustness
Menurut Deloitte, Trustworthy AI merupakan sebuah kerangka berpikir dalam rangka menghasilkan teknologi Kecerdasan Artifisial yang dapat dipercaya, dimana sebuah produk, layanan, atau solusi Kecerdasan Artifisial harus memenuhi kriteria-kriteria sebagai berikut:
1. Dapat dijelaskan (explainable)
2. Adil (fair)
3. Akuntabel (accountable)
4. Privat (private)
5. Aman (secure)
6. Kokoh (robust)
Dewasa ini status pengembangan teknologi Kecerdasan Artifisial masih berfokus pada performa teknis seperti akurasi, namun cenderung mengesampingkan kriteria-kriteria keterpercayaan di atas sehingga teknologi Kecerdasan Artifisial berpotensi memiliki risiko yang tinggi dan dapat melanggar etika. Menurut artikel Wall Street Journal, pada tahun 2018 jumlah perusahaan yang melaporkan Kecerdasan Artifisial sebagai faktor risiko meningkat sebanyak dua kali dibandingkan tahun sebelumnya.
Akhir-akhir ini juga muncul beberapa contoh nyata bahwa Kecerdasan Artifisial dapat menimbulkan dampak negatif, seperti menguatkan diskriminasi atau bias pada face recognition berdasarkan suku bangsa, umur, dan jenis kelamin tertentu, atau memperkuat penyebaran rumor atau berita-berita disinformatif di Internet, baik informasi berupa bentuk teks maupun multimedia.
Dengan demikian, teknologi Kecerdasan Artifisial haruslah dibangun dengan mengikuti kaidah-kaidah pada kerangka berpikir Trustworthy AI sehingga dampak negatif yang diakibatkan oleh Kecerdasan Artifisial dapat dimitigasi. Saat ini telah ada upaya-upaya awal baik dari sisi teori maupun rekayasa data dan algoritma yang mengarah kepada prinsip Trustworthy AI.
Multi agent systems...
Cybersecurity & AI: Pertarungan Antara Hacker dan Sistem Cerdas
5 bulan yang lalu
Sang Muse Algoritmik: Panduan Lengkap AI dalam Produksi Musik Modern—Dari Pembuatan Beat hingga Mastering Final Bagian Dua
6 bulan yang lalu
Sang Muse Algoritmik: Panduan Lengkap AI dalam Produksi Musik Modern—Dari Pembuatan Beat hingga Mastering Final
6 bulan yang lalu
AI dan Seni: Kiamat Kreatif atau Era Baru Kolaborasi? Panduan Lengkap untuk Seniman Digital Bagian Kedua
6 bulan yang lalu
AI dan Seni: Kiamat Kreatif atau Era Baru Kolaborasi? Panduan Lengkap untuk Seniman Digital
6 bulan yang lalu
AI untuk Skripsi: Panduan Lengkap Memanfaatkan Kecerdasan Buatan sebagai Asisten Akademik Pribadi Anda Part 2
6 bulan yang lalu