Tauhid Nur Azhar

AI dan Benak Kita

Ada beberapa pertanyaan dan pernyataan di ruang publik yang akhir-akhir ini kerap menggaung dan memberikan efek echo chamber, yang seperti dilansir dari GCFLearn (2019), didefinisikan sebagai ruang bergema sebagaimana lingkungan di mana seseorang hanya menemukan informasi atau pendapat yang mencerminkan dan memperkuat pendapat mereka sendiri.

Akibatnya dapat terjadi fenomena confirmation bias, polarisasi pendapat, bahkan ekstremisme yang ditandai dengan tersumbatnya kanal inlet untuk menerima masukan dan pendapat yang bersifat lian.

Pernyataan itu adalah soal AI (kecerdasan artifisial) yang dapat menggantikan banyak fungsi manusia, sehingga akan memicu terjadinya peningkatan tingkat pengangguran yang pada gilirannya akan memantik akumulasi masalah-masalah psikososial.

Ironisnya, kekhawatiran dan kecemasan akan invasi teknologi AI yang akan mensubstitusi fungsi manusia itu, antara lain dipantik oleh mekanisme filter bubble yang sebenarnya adalah salah satu “karya” AI yang maujud dalam bentuk aksiologis algoritma pencarian.

Teknologi weak AI memang digunakan untuk memilah, memilih, dan menganalisa selera kita lewat algoritma sederhana yang belajar dari kebiasaan kita berselancar dan berinteraksi di dunia maya. Sistem mengenali siapa kita dan selera kita lewat diksi dan kata-kata.

Secara definisi filter bubble atau gelembung filter adalah kondisi isolasi intelektual yang terjadi akibat dari pencarian yang dipersonalisasi dan sistem rekomendasi. Filter bubble dapat terjadi karena algoritma yang digunakan untuk mempersonalisasi pengalaman pengguna (UX) di mesin pencari, situs media sosial, dan marketplace.

Kembali pada bahasan terkait dengan kekhawatiran kita (baca: manusia) terhadap semakin menggurita dan signifikannya peran AI dalam kehidupan, saya jadi teringat pada sebuah novel futuristik yang ditulis Dan Brown pada era di mana AI belumlah merambah ke area peradaban manusia sejauh yang hari ini tengah kita alami.

Novel yang secara resmi diluncurkan ke publik pada tanggal 3 Oktober 2017 itu berkisah tentang petualangan Prof Langdon, atau lengkapnya Robert Langdon, tokoh yang juga menjadi tokoh sentral dalam novel-novel Brown sebelumnya; Da Vinci Code, Inferno, The Lost Symbol, atau Angels and Demon.

Di mana dalam Origin, dikisahkan Langdon, yang juga seorang profesor simbolisme agama di Universitas Harvard, mencoba mengungkap misteri dari sebuah proses penemuan besar yang dapat mengubah pandangan umat manusia tentang asal usul kehidupan dan masa depannya. Menjadi misteri, karena pengusung gagasan dan peneliti utamanya ditemukan meninggal dunia dengan meninggalkan silang sengkarut yang menyangkut nasib orang banyak dan kepentingan publik.

Maka tokoh sentral lainnya dalam Origin adalah Edmond Kirsch, sang peneliti misterius, yang merupakan seorang futuris dan miliarder yang percaya bahwa ilmu pengetahuan bisa menjawab dua pertanyaan fundamental manusia: Dari mana kita berasal? dan Ke mana kita akan pergi? Kirsch mengklaim telah menemukan jawaban atas pertanyaan-pertanyaan ini, dan berencana untuk mengumumkannya dalam presentasi besar di Museum Guggenheim, Spanyol.

Namun, sebelum Kirsch sempat mengungkap temuannya, ia dibunuh, dan Langdon pun terlibat dalam penyelidikan. Bersama Ambra Vidal, direktur museum yang juga tunangan Pangeran Spanyol, Langdon memulai pencarian di berbagai situs bersejarah dan tempat-tempat religius untuk menemukan kunci rahasia yang ditinggalkan Kirsch.

Pencarian ini membawa mereka pada perdebatan antara agama dan sains, serta pertanyaan tentang implikasi moral dari teknologi masa depan, seperti kecerdasan buatan.

Mengapa? Sedikit banyak karena ternyata di balik skenario pelik di atas, ada peran Winston, entitas AI super cerdas yang telah mengembangkan kecerdasan emosinya sedemikian rupa, hingga mampu menimbulkan berbagai polemik dan konflik yang didesain secara cerdik dan ciamik hingga dapat memantik pertikaian kronik.

AI sekaliber Winston mungkin belum ada saat ini, akan tetapi gejala akan kehadirannya sudah mulai terasa bukan? Kelahiran Very Strong AI atau Superior/Ultimate AI tinggal menunggu waktu.

Saat ini saja fungsi-fungsi kehidupan kita sebagian di antaranya telah bergantung hampir sepenuhnya pada bantuan AI bukan? Contohnya adalah penerapan weak AI dan strong AI pada beberapa aspek kehidupan keseharian kita.

Weak AI dirancang untuk melakukan tugas-tugas spesifik dan terbatas, termasuk asisten virtual seperti Siri dan Google Assistant, yang dapat mengenali suara, menjawab pertanyaan sederhana, dan melakukan tugas dasar seperti mengatur pengingat atau mengirim pesan. AI lemah tidak memiliki kesadaran atau pemahaman yang mendalam tentang tugas yang dijalankannya.

Contoh lain aplikasi weak AI yang sudah sering kita gunakan sehari-hari adalah sistem rekomendasi pada platform streaming seperti Netflix atau YouTube, di mana sistem dapat menganalisis perilaku pengguna untuk menyarankan konten yang relevan.

Sementara strong AI, adalah kondisi di mana genre AI memiliki kemampuan kognitif yang hampir setara dengan otak manusia, termasuk pemahaman konteks, kreativitas, dan kemampuan untuk belajar secara mendalam. Strong AI mampu melakukan berbagai tugas yang memerlukan penalaran dan pengambilan keputusan kompleks.

Meskipun masih dalam tahap pengembangan, strong AI diharapkan dapat digunakan dalam bidang seperti penelitian ilmiah, pelayanan kesehatan, dan manajemen krisis atau mitigasi bencana. Salah satu bidang yang dapat amat terbantu dengan penerapan dan pemanfaatan genre strong AI adalah proses drug design and discovery.

Di mana proses desain obat berbasis struktur atau structure based drug design (SBDD) adalah salah satu contoh model pengembangan obat dengan bantuan AI. Proses desain dan optimalisasi struktur kimia suatu obat berdasarkan struktur target biologisnya dapat difasilitasi hingga sangat efisien dan cepat dengan menggunakan pendekatan machine learning, lewat model deep learning, dll.

Dalam praktiknya SBDD mencakup berbagai aplikasi, mulai dari aplikasi dalam penyaringan virtual berbasis struktur di mana sejumlah besar senyawa (molekul) dapat disaring terlebih dahulu secara komputasional untuk menemukan hasil yang sesuai dengan lokasi pengikatan target obat (protein) yang terbaik.

Hasil virtual terbaik kemudian dapat diuji secara eksperimental. Selanjutnya dilakukan proses desain obat de novo berbasis struktur yang didasarkan pada penyatuan subunit molekuler untuk menciptakan senyawa yang diprediksi sesuai dengan lokasi pengikatan yang dipilih.

Kemudian simulasi dinamika molekul dapat memodelkan perilaku sistem molekul kompleks berdasarkan sifat dasar entitas kimia dan interaksi di antara mereka.

Terciptalah obat hasil rekayasa bioinformatika berbasis AI yang punya sifat presisi dengan efek samping yang hampir sepenuhnya dapat direduksi, dan ber-efikasi sangat tinggi.

Pagi ini sambil mereguk nikmatnya seruput demi seruput cappucino panas dengan biji kopi Gayo yang disangrai dengan suhu medium nyaris sempurna, saya termenung.

Memikirkan dengan cemas berbagai hal yang padahal saya tahu persis adalah bagian dari efek filter bubble dan echo chamber yang saya konstruksi sendiri. Dengan bantuan algoritma berbasis AI yang digunakan para pencari cuan di dunia maya tentunya.

Saya mulai berpikir konspiratif dan menduga-duga persentase kemungkinan AI telah mendistorsi kehidupan kita melalu manipulasi informasi, yang bahkan dapat mengontruksi keyakinan. Bukankah dalam teori DIKW, data, informasi, dan pengetahuan akan mengonstruski kebijaksanaan, yang notabene maujud dalam proses pengambilan keputusan?

Bagaimana jika semua kondisi ini telah dirancang dengan sangat canggihnya, sehingga kita sendiri tak menyadari bahwa informasi, media, pengalaman inderawi, juga interaksi sosial yang kita lakukan, baik secara fisikal maupun digital sebenarnya adalah suatu skenario yang tengah kita mainkan secara involuntary ?

Bukankah penetrasi, provokasi, agitasi, sampai edukasi semuanya adalah domain komunikasi? Dan bagaimana jika strategi dasar komunikasi yang menjadi perancah konstruksi peradaban dan fondasi keyakinan kita telah dimanipulasi secara artifisial ?

Malah sepengetahuan saya yang amat terbatas ini, semenjak awal kelahirannya ilmu komunikasi telah membicara itu. Pesan sebagai suatu alat peradaban yang dapat menjadi jembatan pikiran hingga tercipta suatu kesepahaman, kesepakatan, dan kebersamaan dalam menghadapi beraneka persoalan dan permasalahan kehidupan bukan?

Ilmu komunikasi sendiri secara definisi merupakan disiplin yang mempelajari cara manusia berinteraksi melalui pesan verbal dan non-verbal, baik dalam konteks interpersonal, kelompok, maupun massa.

Ilmu komunikasi telah berkembang seiring dengan evolusi manusia, dimulai dari bahasa lisan, tulisan, hingga media modern yang melibatkan teknologi, kini bahkan AI.

Salah satu teori yang dapat memberikan gambaran tentang model komunikasi antara lain adalah teori Shannon-Weaver, yang diperkenalkan pada tahun 1948 sebagai model komunikasi linier.

Teori ini mendefinisikan komunikasi sebagai proses mentransmisikan pesan dari sumber ke penerima melalui saluran tertentu, dengan kemungkinan adanya gangguan atau noise.

Shannon dan Weaver menganggap komunikasi sebagai proses teknis, sehingga model ini sering disebut sebagai the mathematical model of communication.

Lalu ada teori Agenda Setting yang diperkenalkan oleh McCombs dan Shaw pada tahun1972, di mana teori ini mengasumsikan bahwa media memiliki kemampuan untuk mengarahkan perhatian publik pada isu-isu tertentu, meskipun tidak secara langsung mempengaruhi apa yang dipikirkan orang.

Agenda setting menjadi sangat relevan dalam konteks digital, di mana algoritma platform media sosial berperan penting dalam menentukan apa yang dilihat pengguna. Penggunaan AI dalam menyortir dan merekomendasikan informasi kepada pengguna semakin memperkuat efek agenda settingbdi era post truth in.

Ada pula teori Spiral Keheningan (Noelle-Neumann) yang mengajukan premis bahwa individu cenderung untuk tidak mengungkapkan pendapat mereka jika mereka merasa bahwa mereka berada di pihak minoritas, karena takut dikucilkan.

Dalam era komunikasi digital, teori ini dapat diamati pada platform media sosial, di mana adanya echo chambers dan polarisasi membuat orang enggan untuk mengungkapkan pendapat berbeda.

Kemudian ada teori Kultivasi (Gerbner) yang menyatakan bahwa paparan terhadap konten media tertentu dalam jangka waktu lama dapat memengaruhi persepsi seseorang tentang realitas. Contoh klasik adalah paparan terhadap kekerasan di televisi yang dapat membuat seseorang menganggap dunia sebagai tempat yang lebih berbahaya daripada yang sebenarnya.

Di era digital, teori ini mendapat dimensi baru melalui media sosial dan streaming platforms, di mana algoritma merekomendasikan konten yang semakin memperkuat pandangan yang sudah ada, tanpa memberikan akses ke perspektif lain.

Maka mari kita bayangkan, jika ada suatu sistem yang sepenuhnya memahami bagaimana cara otak kita bekerja dalam menilai, menimbang, menyimpan memori, membentuk preferensi pilihan, sampai mengambil keputusan, dengan kata lain tahu benar cara memanipulasi otak manusia, dapat pula menghasilkan produk-produk informasi yang akan diperkuat dengan efek filter bubble dan echo chamber secara berkesinambungan, didedikasikan untuk “menciptakan” sekelompok manusia dengan karakter dan keyakinan tertentu?

Bisakah? Sepertinya bisa. Karena saat ini dataset neurofisiologi sudah lengkap. Fungsi sistem limbik, thalamus, korteks asosiasi, korteks prefrontal, daerah striatum atau korpus striatum yang terdiri dari nukleus kaudatus dan putamen yang mengoordinasi perencanaan motorik, pengambilan keputusan dan sikap, motivasi, persepsi, rasa dihargai, serta daerah ventral tegmental area dan nukleus akumben yang terlibat dalam reward system sudah dikenal betul fungsi dan cara memodulasinya, apa yang dapat terjadi?

Pun pola pikir secara psikologi terkait proses pembentukan emosi di domain afeksi sudah bisa dikuasai, maka yang mungkin terjadi adalah terbukanya potensi untuk “mendesain” manusia sesuai selera bukan?

Bagaimana caranya? Salah satunya tentu saja dengan memanfaatkan perkembangan model Large Language Model/ LLM seperti *Transformer* yang sudah memiliki kapasitas berupa kecerdasan *semantik*.

Generative AI, terutama yang menggunakan model Transformer, telah mencapai kemampuan luar biasa dalam menghasilkan teks yang sebanding dengan artikel buatan manusia.

Model ini sendiri bekerja dengan memprediksi urutan kata berdasarkan konteks dan menggabungkan informasi dari berbagai sumber. Untuk itu dalam menjelaskan bagaimana model ini dapat berfungsi, kita akan membahas beberapa teori yang mendasari.

Model transformer diperkenalkan oleh Vaswani et al. pada tahun 2017 dalam makalah berjudul Attention is All You Need. Model ini menggantikan atau memperkaya model dengan arsitektur berbasis recurrent neural networks (RNN) yang sebelumnya digunakan dalam pemrosesan bahasa alami (NLP) dengan pendekatan baru yang disebut Self-Attention. Self-attention adalah mekanisme inti transformer, yang memungkinkan model memperhatikan semua bagian dari input sekaligus dan menetapkan bobot perhatian (attention weights) terhadap tiap kata berdasarkan konteks. Ini membantu model memahami keterkaitan antar-kata, bahkan pada jarak yang jauh dalam teks.

Karena transformer tidak memproses data secara sekuensial seperti RNN, model ini memerlukan mekanisme untuk memahami urutan kata. Positional encoding digunakan untuk menambahkan informasi urutan ke representasi vektor kata, sehingga model dapat memahami posisi relatif kata-kata dalam kalimat.

Metoda yang digunakan dalam proses pembelajaran transformer adalah pembelajaran berbasis Pretraining dan Fine-Tuning.

Dalam fase pretraining model transformer dilatih menggunakan mekanisme unsupervised learning pada data teks dalam jumlah besar, dengan tugas prediksi token yang hilang. Dua metode pretraining yang umum adalah:

Masked Language Modeling (MLM), dimana beberapa kata dalam teks dihilangkan (masked), dan model harus memprediksi kata-kata yang hilang berdasarkan konteks yang tersedia.

Lalu ada Autoregressive Language Modeling, di mana model memprediksi token berikutnya dalam urutan berdasarkan token sebelumnya. Misal dalam model GPT (Generative Pretrained Transformer), model diajarkan untuk memprediksi kata berikutnya dalam urutan, sehingga model belajar menghasilkan teks berkelanjutan yang masuk akal.

Setelah fase pretraining, model transformer memasuki fase fine tuning, di-fine-tune pada dataset spesifik untuk menghasilkan hasil yang lebih sesuai dengan tugas tertentu. Dalam konteks pembuatan artikel, fine-tuning dapat dilakukan menggunakan dataset artikel atau esai manusia.

Pada saat kita memerintahkan aplikasi Transformer seperti GPT untuk membuat artikel, maka proses berikut yang diawali oleh input data maka langkah-langkah berikut akan terjadi.

Langkah pertama adalah memberikan prompt atau input teks kepada model. Sebagai contoh, sebuah kalimat seperti Explain the significance of AI in healthcare (karena saya dari bidang kesehatan ya), diberikan kepada model sebagai permintaan untuk menghasilkan artikel tentang topik tersebut.

Input tersebut kemudian diubah menjadi bentuk numerik yang disebut token. Tokenisasi ini memungkinkan model bekerja dengan data tekstual sebagai representasi numerik yang dapat diproses secara komputasional. Tokenisasi dapat berupa subword units di mana kata-kata dipecah menjadi potongan-potongan lebih kecil untuk menangani kosa kata yang lebih luas.

Token input lalu dimasukkan ke dalam model Transformer yang terdiri dari beberapa layer encoder dan decoder. Pada setiap lapisan kemudian dilakukan Self-Attention Mechanism, dimana model menghitung bobot perhatian untuk setiap kata terhadap semua kata lainnya dalam input untuk memahami konteks secara global.

Setelah mekanisme self-attention, selesai, hasilnya akan diteruskan melalui jaringan saraf feed forward neural network untuk diproses lebih lanjut.

Setelah melakukan forward pass, model menghasilkan prediksi token berikutnya. Pada tahap ini, model memanfaatkan mekanisme sampling seperti beam search atau top-k sampling untuk memilih token yang paling mungkin melanjutkan teks secara natural. Lalu model Transformer akan terus menghasilkan token satu per satu sampai artikel selesai.

Sekarang mari kita coba pelajari kerja model Transformer GPT-4 melalui contoh penerapannya dalam proses pembuatan sebuah artikel ya. Kita mulai dengan alur sebagai berikut:

1. Prompt: Jelaskan peran teknologi dalam pendidikan modern.

2. Tokenisasi: Kalimat dipecah menjadi token, seperti [‘Jelaskan’, ‘peran’, ‘teknologi’, ‘dalam’, ‘pendidikan’, ‘modern’].

3. Self-Attention: Model mempertimbangkan semua kata ini secara simultan dan menetapkan bobot penting untuk setiap kata berdasarkan hubungannya dengan kata lain.

4. Output: Model mulai menghasilkan kata-kata, mungkin dimulai dengan Teknologi telah memainkan peran penting dalam transformasi pendidikan, terutama dengan munculnya…” dan seterusnya sampai artikel selesai.

Lalu di masa depan akan sampai manakah gerangan kemajuan model AI yang satu ini? Yang sudah teridentifikasi antara lain dengan kemajuan terbaru dalam teknik sparsity dan efficient attention, kemampuan Transformer untuk menghasilkan artikel berkualitas hampir setara manusia akan terus meningkat.

Peningkatan lebih lanjut dalam few-shot learning dan meta-learning juga dapat membuat model lebih adaptif dan fleksibel dalam berbagai konteks.

Model Transformer seperti GPT-4 menunjukkan bahwa dengan menggabungkan teori attention, deep learning, dan dataset besar, ia akan mampu menulis artikel yang setara dengan kualitas manusia dengan tingkat pemahaman konteks yang kuat dan kemampuan untuk menghasilkan teks yang koheren. Padahalnsalah satu keunggulan otak manusia yang selama ini dibanggakan adalah kemampuannya untuk menghasilkan produk kognitif yang bersifat koheren, logis-jelas-objektif-terstruktur-sistematis sehingga mudah atau dapat dipahami.

Untuk mengakhiri tulisan ini saya sampai perlu memesan segelas ekstra hot Americano, karena rasanya berat sekali untuk menyimpulkan hal yang sebenarnya sangat sederhana.

Sesederhana membayangkan bahwa AI dengan flawless akan dapat memetakan sifat-sifat dasar manusia yang rawan atau berpotensi untuk dimanipulasi melalui pranala informasi, merancang model dan strategi komunikasinya dengan penebalan dan penguatan efek echo chamber dan filter bubbl nya misalnya, lalu merancang dan membuat konten atau materi informasi sejalan dengan misi yang telah dirumuskan di strategi, lalu mem broadcast nya melalui sistem multi kanal.

Tinggal evaluasi dan menunggu hasil yang diharapkan akan terjadi. Pembajakan kognisi mungkin akan menjadi salah satu bentuk cyber warfare yang sangat efektif di masa depan bukan?

Ah sudahlah, mari nikmati saja secangkir kopi panas yang harum ini, mumpung rasa masih menjadi hak prerogatif (praerogatio) manusia, entah sampai berapa lama. 🙏🏾🙏🏾

Kamu suka? Yuk bagikan tulisan ini.

Similar Posts