Meneropong Masa Depan Artificial Intelligence (AI) — DRAFT

Artificial Intelligence dan Potensinya

Andi Sama CIO, Sinergi Wahana Gemilang

#SWG #SinergiWahanaGemilang #IBM #IBMIndo #InovasiIndonesia

TLDR; Artificial Intelligence (AI) saat ini dan potensinya di masa depan. Dilengkapi dengan proses pembuatan AI-model (AI data flow) serta contoh-contoh penerapan praktis yang berbasiskan image processing (computer vision), natural language processing, dan transformer.

Samsung TV terbaru telah menghadirkan fitur AI-Upscaling berbasis Convolutional Neural Network (CNN) yang memungkinkan streaming content dengan resolusi ‘rendah’ (HD, High Definition atau juga sering disebut sebagai Full HD)) di-upscale menjadi 4K (Ultra-HD) atau bahkan 8K.

Dalam acara Indonesia AI Summit 2020 yang baru saja selesai diadakan pada pertengahan bulan November 2020 ini, Prof. Yann LeCun (Facebook AI Research) menjadi salah satu dari International Keynote Speaker dengan topik bahasan Self-Supervised Learning and the future of machine and deep learning. Prof. Yann, yang juga Professor di New York University adalah inventor dari CNN (1989) yang membuat perkembangan berbagai aplikasi berbasis Artificial Intelligence (AI), terutama pada area Computer Vision meningkat secara signifikan.

Perkembangan dan Tantangan AI, Sekarang dan di Masa Depan

Perkembangan pesat AI yang merupakan bagian dari disiplin ilmu Computer Science tidak terlepas dari perkembangan Deep Learning dalam dekade terakhir ini. Deep Learning merupakan bagian dari Machine Learning, dimana Machine Learning adalah bagian dari AI.

Deep Learning (DL) sebagai bagian dari Machine Learning (ML), yang juga merupakan bagian dari Artificial Intelligence (AI). Artificial Intelligence merupakan bagian dari disiplin ilmu: Computer Science (Michael Copland, 2016).

Dengan adanya algoritma seperti CNN serta ketersediaan bigdata sejak tahun 2010-an, perkembangan AI berbasis Deep Learning menjadi terakselerasi. Hal ini ditunjang pula oleh ketersediaan hardware berupa GPU (Graphic Processing Unit) yang membuat pemrosesan gambar berdasarkan CNN dapat dilakukan secara paralel dan sangat cepat.

Kalau kita gali lebih jauh — Pembuatan AI-model berbasis Deep Learning saat ini lebih banyak dilakukan dengan Supervised Learning, di mana kita menghasilkan AI-model melalui pendekatan aproksimasi, menggunakan algoritma yang kita pilih dengan belajar langsung dari sumber data yang telah dilabel sebelumnya. AI-model yang dihasilkan dapat dipergunakan untuk memprediksi suatu output berdasarkan input data, melalui satu proses yang dikenal sebagai: Inferencing.

Secara umum, di luar Supervised Learning, ada dua pendekatan lainnya dalam pembuatan AI-model melalui Machine Learning: Unsupervised-Learning dan Reinforcement Learning.

Melalui Unsupervised Learning, AI-model dihasilkan dengan belajar dari data yang tidak ada labelnya, melakukan clustering misalnya. Reinforcement Learning menghasilkan AI-model dengan mendefinisikan suatu starting point dan target output, di mana AI-model dihasilkan dengan mengeksekusi actions yang memaksimalkan reward untuk mendapatkan output.

1. Fokus Area

Implementasi AI dapat dikategorikan kedalam berbagai fokus area. Pada artikel ini, kita coba melihat dua kategori: computer vision yang memang banyak diimplementasikan, yang menirukan fungsi sensor mata manusia. Juga area yang sedang berkembang pesat saat ini, natural language processing (NLP), di mana AI diharapkan untuk dapat berkomunikasi secara alami dengan bahasa manusia.

A. Computer Vision

Image Classification (mengklasifikasikan gambar), Image Segmentation (pengenalan obyek yang ada pada gambar/video), Image Captioning (mengartikan gambar dan otomatis membuat deskripsi teks-nya), Face recognition (pengenalan wajah untuk akses perangkat pada Smartphone berbasis Android/iOS) merupakan beberapa contoh penerapan yang dikembangkan berdasarkan CNN.

Face liveness detection melalui deteksi kerdipan mata, diaplikasikan ke satu video file dari suatu trailer drama korea (Film originalnya ada di Netflix sebagai “Chief of Staff 2 Ep 1”). Salah satu frame menunjukkan bahwa kerdipan mata telah dideteksi pada wajah Kang Sun Young, peran yang dimainkan oleh artis Korea: Shin Min Ah (Drama Vibe, 2019).
Face liveness detection melalui deteksi kerdipan mata, diaplikasikan ke suatu video stream dari kamera pada laptop Lenovo, Thinkpad T480. Salah satu frame menunjukkan bahwa kerdipan mata telah dideteksi pada wajah (saat work from home, April 2020).
Pengenalan Wajah yang diasosiasikan dengan nama, diaplikasikan ke suatu video stream dari kamera. Salah satu frame menunjukkan bahwa kerdipan mata telah dideteksi pada wajah (saat work from home, April 2020).
Image Captioning. Caption digenerate otomatis berdasarkan suatu image. Tim Sinergi Wahana Gemilang mengaplikasikan AI-model ke Android Smartphone dan melakukan text-to-speech terhadap caption yang dihasilkan.
Melakukan Segmentasi image berbasiskan Supervised Learning. AI-model ditrain berdasarkan ratusan dataset (hole, crack) dengan menggunakan IBM Visual Insights yang telah memiliki base-model untuk melakukan Image Segmentation.

B. Natural Language Processing (NLP)

Chatbot, merupakan salah satu aplikasi AI berbasis NLP yang mulai banyak kita lihat di Indonesia, bahkan chatbot dalam Bahasa Indonesia.

NLP memproses rangkaian kata-kata, berdasarkan dataset berupa sekumpulan rangkaian kata yang telah di-train sebelumnya dan menghasilkan suatu AI-model. Saat dijalankan (melakukan inferece), model mencoba untuk dapat memprediksi penyelesaian satu kalimat misalnya.

Contoh suatu AI-model berbasis NLP, yang di-train dengan hampir semua lagu (dataset) yang pernah dibawakan oleh Bunga Citra Lestari. Warna teks hitam adalah input kita, warna teks merah adalah yang di-generate oleh AI-model.

C. Text dan Image Generation dengan Transformer

Text Generator, suatu AI-model berbasis generasi awal dari Transformer. Warna teks hijau adalah input kita, warna teks biru adalah yang di-generate oleh Transformer.
Text Generator modern, AI-model yang berbasis GPT-2 (Generative Pre-Trained) yang dibuat oleh Open.ai. GPT-2 merupakan Transformer generasi baru. Warna teks hitam adalah input kita, warna teks biru adalah yang di-generate oleh GPT-2 (Latitude, 2020).

Contoh suatu AI-model berbasis GPT-2 (Generative Pre-Trained) oleh Open.ai. GPT-2 merupakan Transformer generasi baru. Warna teks hitam adalah input kita, warna teks biru adalah yang di-generate oleh GPT-2.

2. Alur membuat AI-Model (AI data Pipeline)

AI Data Pipeline biasanya terdiri dari 3 langkah utama: 1. Mempersiapkan Data, 2. Modeling/Training, dan 3. Deployment/Inferencing.

AI Data Pipeline yang terdiri dari 3 langkah utama: 1. Data Preparation, 2. Modeling and 3. Deployment (Inferencing), serta peran dari Data Engineer, Data Scientist, Machine Learning Engineer dan lainnya (Andi Sama, 2019b).

A. Mempersiapkan Data

Perkembangan Artificial Intelligence / AI saat ini cenderung berbasiskan kepada Data-driven AI. Di sini ketersediaan data menjadi kunci dalam melakukan pemodelan berbasis AI.

Berbagai use-case tentang Artificial Intelligence yang telah diterapkan di berbagai sektor dan Industri di berbagai tempat di dunia tentu saja dapat menjadi inspirasi bagi adopsi penerapannya di Indonesia. Pemerintah maupun swasta telah mulai menerapkannya, walau tentunya masih banyak potensi lainnya yang dapat terus dikembangkan.

Ketersediaan sumber data (data readiness), kemampuan komputasi (computing power) dalam pembuatan model berbasis AI (AI-model), termasuk ketersediaan sumber daya manusia (talent) merupakan beberapa tantangan dalam penerapan AI dalam berbagai sektor dan industri di Indonesia.

Sumber data (dataset) dapat berupa structured seperti database maupun unstructured seperti teks, gambar, video dan suara. Perkembangan data yang berupa semi-structured, yang berasal dari berbagai perangkat pintar berbasis IoT / Internet of Things atau System Logs juga perlu untuk diperhatikan. Ini adalah salah satu sumber bigdata yang saat ini sedang cepat bertumbuh. Penyediaan labeled-data (data yang telah dilabelkan dengan korelasi tertentu) membutuhkan waktu yang lama. Apalagi ditambah dengan kebutuhan data dalam jumlah yang cukup besar, juga dengan kualitas yang memadai untuk menghasilkan AI-model dengan ekspektasi akurasi tertentu untuk penerapannya secara komersial.

Dataset perlu untuk dipilih dan dipilah sebelum diproses. Dataset dalam format tertentu mungkin saja belum langsung dapat dipergunakan untuk melakukan modeling (training). Dataset yang berupa teks, gambar, video dan suara misalnya, perlu diubah menjadi angka, sebelum dapat diproses oleh algoritma berbasis AI.

Kedepannya, kebutuhan data untuk menghasilkan AI-model diharapkan akan semakin berkurang, AI-model akan belajar lebih seperti manusia, belajar dari sample yang hanya sedikit (few-shots learning). Dengan perkembangan ini, waktu yang dibutuhkan untuk pembuatan AI-model diharapkan akan dapat berkurang secara signifikan, dengan tetap menghasilkan kualitas AI-model yang baik tentunya.

B. Modeling (Training)

Berbagai riset terbaru telah menunjukkan kemajuan, seperti pendekatan Self-Supervised-Learning yang dikemukakan oleh Prof. Yann LeCun pada ajang Indonesia Artificial Intelligence 2020. Unsupervised Learning, juga Reinforcement Learning (learn like a baby) juga diharapkan dapat berkembang lebih baik ke depannya.

Once data is ready, training can begin. Prior to the training we need to set a few hyperparameters such as epoch (number of iterations), learning rate (how fast the changes in small steps towards achieving global minima when doing stochastic gradient descent algorithm through 1st order derivative process (differentiation) on certain defined loss function) and dataset split ratio (dataset is typically divided into several portions such as [70%:15%:15%] or [60%:20%:20%] for the purpose of [Training:Validation:Testing].

We need to specify hyperparameters named k for example (number of expected clusters to group our dataset) if we select k-nn algorithm for Unsupervised Learning.

For Supervised Learning, in which we have a set of input data associated with a set of output label, the number of training data is typically in the order of thousands per class (or per type of object in which we want to find the relationship between a set of input data and a set of labeled output).

We need to review the result through some metrics (depends on chosen algorithm) such as accuracy, confusion matrix, mAP (mean Average Precision) and IoU (Intersection over Union) to find the best performing model. The selected model can then be deployed.

C. Deployment (Inferencing)

This is the step in which we use the trained model to predict the outcome, given new data. Deployment can be done on-premise or in the cloud, using either CPU or GPU with a few different approaches depending on different purposes: accessed by mobile application or web application or even accessed by a sub-process within an application.

3. Indonesia AI Summit 2020

Indonesia, melalui BPPT (Badan Pengkajian & Penerapan Teknologi), baru saja selesai menyelenggarakan ajang konferensi tingkat nasional dalam bidang Kecerdasan Buatan (Artificial Intelligence/AI). Acara yang berlangsung 4 hari ini di bulan November ini menghadirkan beragam pembicara tingkat nasional maupun internasional.

Di Indonesia, Artificial Intelligence mulai diperkenalkan dengan istilah yang lebih baku “Kecerdasan Artifisial / KA.

Indonesia Artificial Intelligence Summit 2020, November 10–13, 2020.

Alibaba, Amazon (AWS), Deloitte, Huawei, IBM, Google, Microsoft, NVidia, dan Oracle merupakan pemain AI tingkat internasional yang ikut berpartisipasi. IBM membawakan topik “Strategies for Preparing Information Infrastructure for the benefits of Research and Industrial Innovation by utilizing AI Technology and Bigdata Analytics”. Sedangkan Google dan AWS membawakan topik mengenai “Emerging Technologies in Google Cloud” dan “Leveraging AI for Sustainable Smart Cities and Digital Government”.

Dunia akademis internasional juga turut berpartisipasi dengan memberikan paparan tentang perkembangan terkini. Sebut saja “Biometric Recognition” oleh Michigan University USA, “AI in Humanoid Robotics” oleh Meijo University Japan, dan New York University. Akademisi nasional diwakili diantaranya oleh Institut Teknologi Bandung (ITB), Institut Teknologi Surabaya (ITS), Universitas Indonesia (UI), dan Binus University.

Tentunya partisipasi dari Indonesia juga tak kalah menariknya, baik dalam diskusi panel maupun pemaparan hasil riset dan implementasi di bidang kecerdasan buatan. Diantaranya: Astra Internasional, Bukalapak, Telkom Indonesia, dan Go-Jek. Termasuk kontribusi dari para ahli BPPT sebagai penyelenggara acara.

Kebutuhan akan Talenta

Diluar berbagai produk dan solusi yang tersedia, talenta di bidang AI masih sangat diperlukan. Harvard Business Review (2012) menyebutkan bahwa Data Scientist adalah the sexiest job di abad 21. Pekerjaan rumah untuk para stakeholders di Indonesia tentunya, baik pemerintah maupun para pelaku di Industri, dalam mempersiapkan talenta yang mumpuni di bidang ini.

Melangkah ke Depan

Masih banyak pekerjaan rumah yang perlu kita lakukan bersama dalam melakukan Penelitian, Pengembangan, Pengkajian & Penerapan Teknologi Informasi di Indonesia. Kecerdasan Artifisial, sebagai salah satu teknologi penunjang Industry 4.0, menjadi salah satu area baru yang berkembang dan diadopsi di Indonesia, yang tentunya perlu kita cermati untuk penerapan praktisnya pada berbagai sektor dan industri.

Berbagai teknologi penunjang Industry 4.0 diharapkan akan bersinergi untuk memberikan beragam solusi untuk berbagai kebutuhan pada berbagai sektor dan Industri di Indonesia. IoT, Bigdata, Blockchain, Robotics, dan Artificial Intelligence merupakan bagian dari teknologi pendukung Industry 4.0.

Ke depannya menuju 2030, teknologi lainnya yang sedang berkembang: Quantum Computing diprediksikan akan dapat lebih memperkaya berbagai teknologi yang telah ada saat ini.

Penggabungan AI dengan Quantum Computing dapat menghasilkan inovasi dalam melakukan Quantum Machine Learning. Potensi yang terlihat memungkinkan adalah bertambahnya processing speed secara signifikan saat melakukan pembuatan AI-model.

Quantum NLP juga sedang mulai berkembang. Pembuatan AI-model dalam pemrosesan bahasa, menggunakan pendekatan hybrid Classical-Quantum, penggabungan antara Classical Computing dan Quantum Computing.

Referensi