Bagaimana cara kerja kecerdasan buatan?

 

Pendekatan dan Konsep AI

Kurang dari satu dekade setelah mengalahkan mesin enkripsi Nazi Enigma dan membantu Sekutu memenangkan Perang Dunia II, ahli matematika Alan Turing bertanya, “Bisakah mesin berpikir?” Saya mengubah sejarah untuk kedua kalinya dengan pertanyaan sederhana.

Tesis Turing “Computing Machines and Intelligence” (1950) dan tes Turing yang mengikutinya menetapkan tujuan dan visi mendasar dari kecerdasan buatan.

Pada dasarnya, AI adalah cabang ilmu komputer yang bertujuan untuk menjawab pertanyaan Turing dengan cara yang positif. Ini adalah upaya untuk mereplikasi atau mensimulasikan kecerdasan manusia dalam sebuah mesin.

Tujuan luas kecerdasan buatan telah menimbulkan banyak pertanyaan dan perdebatan. Seperti yang sering terjadi, definisi tunggal dari suatu bidang tidak diterima secara universal.

Keterbatasan utama dalam mendefinisikan AI hanya sebagai “membangun mesin cerdas” adalah bahwa ia tidak benar-benar menjelaskan apa itu kecerdasan buatan. Apa yang membuat mesin cerdas? AI adalah ilmu interdisipliner dengan berbagai pendekatan, tetapi kemajuan dalam pembelajaran mesin dan pembelajaran mendalam menciptakan perubahan paradigma di hampir setiap bidang industri teknologi.

Dalam buku teks inovatif Artificial Intelligence: A Modern Approach, penulis Stuart Russell dan Peter Norvig mendekati masalah ini dengan menyatukan penelitian mereka seputar tema agen cerdas dalam mesin. Dengan pemikiran ini, AI adalah ”  studi tentang agen yang menerima persepsi dari lingkungan dan mengambil tindakan.” (Russell dan Novig VIII)

Norvig dan Russell mengeksplorasi empat pendekatan berbeda yang secara historis mendefinisikan bidang AI.

  1. Berpikir seperti manusia
  2. Berpikir rasional
  3. Bertingkah seperti manusia
  4. Bertindak secara rasional

Dua ide pertama adalah tentang proses berpikir dan penalaran, sementara yang lain berkaitan dengan tindakan. Norvig dan Russell menunjukkan bahwa “semua keterampilan yang diperlukan untuk tes Turing juga memungkinkan agen untuk bertindak secara rasional,” dengan fokus khusus pada agen rasional yang bertindak untuk mencapai hasil terbaik. (Russell dan Novig 4).

Patrick Winston, seorang profesor kecerdasan buatan dan ilmu komputer Ford di MIT, mendefinisikan AI sebagai “algoritma yang diekspos oleh representasi yang mendukung model yang menargetkan loop yang dimungkinkan oleh kendala dan yang menghubungkan pikiran, persepsi, dan tindakan.”

Definisi-definisi ini mungkin tampak abstrak bagi kebanyakan orang, tetapi mereka fokus pada bidang ini sebagai bidang ilmu komputer dan memberikan cetak biru untuk menyuntikkan pembelajaran mesin dan subset kecerdasan buatan lainnya ke dalam mesin dan program.

 

Empat Jenis Kecerdasan Buatan

 

Mesin Reaktif

Mesin reaktif hanya dapat mengikuti prinsip-prinsip paling dasar ai dan, seperti namanya, menggunakan kecerdasan mereka untuk melihat dan bereaksi terhadap dunia di depan mereka. Mesin reaktif tidak dapat menyimpan memori dan, sebagai hasilnya, tidak dapat mengandalkan pengalaman masa lalu untuk menginformasikan keputusan secara real time.

Persepsi langsung tentang dunia berarti bahwa mesin reaktif dirancang untuk menyelesaikan hanya sejumlah tugas khusus. Namun, dengan sengaja mempersempit pandangan dunia tentang mesin reaktif berarti bahwa jenis AI ini akan lebih andal dan andal, daripada tindakan pemotongan biaya.

Contoh terkenal dari mesin reaktif adalah Deep Blue, yang dirancang oleh IBM pada 1990-an sebagai superkomputer untuk bermain catur dan mengalahkan grandmaster internasional Gary Kasparov dalam permainan. Deep Blue hanya bisa mengidentifikasi bidak di papan catur, tahu bagaimana setiap bidak bergerak berdasarkan aturan catur, mengenali posisi saat ini dari setiap bidak, dan menentukan apa langkah paling logis pada saat itu. Komputer tidak mengejar potensi gerakan masa depan oleh lawan-lawannya atau mencoba menempatkan potongan-potongannya pada posisi yang lebih baik. Setiap belokan dipandang sebagai kenyataan tersendiri, terpisah dari gerakan lain yang dilakukan sebelumnya.

Contoh lain dari mesin reaktif gameplay adalah AlphaGo Google 。 AlphaGo juga mengandalkan jaringan sarafnya sendiri untuk mengevaluasi perkembangan game saat ini, meskipun tidak dapat mengevaluasi pergerakan di masa depan, memberikan keunggulan atas Deep Blue dalam game yang lebih kompleks. AlphaGo juga mengalahkan pesaing kelas dunia game pada tahun 2016, mengalahkan pemain juara Go Lee Sedol.

Meskipun terbatas dalam ruang lingkup dan tidak dapat dengan mudah dimodifikasi, Kecerdasan Buatan Mesin Reaktif dapat mencapai beberapa tingkat kompleksitas dan memberikan keandalan saat dibuat untuk melakukan tugas yang dapat diulang.

 

Memori terbatas

Kecerdasan buatan dengan memori terbatas memiliki kemampuan untuk menyimpan data dan prediksi sebelumnya saat mengumpulkan informasi dan menimbang keputusan potensial – pada dasarnya, ia memeriksa masa lalu untuk petunjuk tentang apa yang mungkin terjadi selanjutnya. Kecerdasan buatan dengan memori terbatas lebih kompleks dan menghadirkan potensi yang lebih besar daripada mesin reaktif.

AI memori terbatas dibuat ketika tim terus melatih model tentang cara menganalisis dan mengkonsumsi data baru, atau ketika membangun lingkungan AI untuk melatih dan memperbarui model secara otomatis. Ketika pembelajaran mesin memanfaatkan AI dengan memori terbatas, Anda harus mengikuti enam langkah: membuat data pelatihan, membuat model pembelajaran mesin, memprediksi model, menerima umpan balik manusia atau lingkungan dari model, dan memberikan umpan balik untuk salah satu umpan balik. Langkah-langkah ini harus diulang sebagai siklus.

Ada tiga model pembelajaran mesin utama yang memanfaatkan kecerdasan buatan dengan memori terbatas.

  • Reinforcement learning adalah proses trial and error untuk belajar membuat prediksi yang lebih baik.
  • Memori jangka pendek jangka panjang (LSTM) berguna untuk menggunakan data historis untuk memprediksi item berikutnya secara berurutan. LTSM sangat penting dalam hal memprediksi informasi yang lebih baru, dan menggunakannya untuk menarik kesimpulan sambil mengabaikan data historis.
  • Evolutionary Adversarial Generative Networks (E-GAN) telah berevolusi dari waktu ke waktu, tumbuh untuk mengeksplorasi jalur yang sedikit berubah berdasarkan pengalaman sebelumnya dengan setiap keputusan baru. Model ini selalu mencari jalur yang lebih baik dan menggunakan simulasi dan statistik, atau kesempatan, untuk memprediksi hasil dari seluruh siklus mutasi evolusioner.

 

Teori Pikiran

Teori pikiran hanya itu – teoretis. Kami belum mencapai kemampuan teknis dan ilmiah yang diperlukan untuk mencapai tingkat kecerdasan buatan berikutnya.

Konsep ini didasarkan pada premis psikologis bahwa kita memahami bahwa organisme lain memiliki pikiran dan perasaan yang mempengaruhi perilaku mereka sendiri. Dalam hal mesin AI, itu berarti bahwa mesin seperti manusia dan hewan dapat memahami bagaimana perasaan mereka dan membuat keputusan melalui refleksi diri dan keputusan, dan dapat menggunakan informasi itu untuk membuat keputusan sendiri. Pada dasarnya, mesin harus mampu memahami dan memproses konsep “pikiran”, fluktuasi emosional dalam pengambilan keputusan, dan konsep psikologis lainnya secara real time, menciptakan hubungan dua arah antara manusia dan kecerdasan buatan.

 

kesadaran diri

Setelah teori pikiran ditetapkan dalam kecerdasan buatan, langkah terakhir adalah AI menjadi sadar diri, suatu hari nanti jauh di masa depan. Kecerdasan buatan semacam itu memiliki kesadaran tingkat manusia dan memahami keberadaannya sendiri di dunia, keberadaan orang lain, dan keadaan emosional. Anda akan dapat memahami apa yang dibutuhkan orang lain tidak hanya berdasarkan apa yang mereka katakan kepada mereka, tetapi juga pada bagaimana mereka memberi tahu mereka.

Kesadaran diri dalam kecerdasan buatan bergantung pada kedua peneliti manusia yang memahami premis kesadaran dan belajar bagaimana mereplikasinya sehingga dapat dimasukkan ke dalam mesin.

 

Bagaimana AI digunakan?

Berbicara kepada audiens di Japan AI Experience 2017, CEO DataRobot Jeremy Achin memulai pidatonya dengan memberikan definisi berikut tentang bagaimana AI digunakan saat ini:

“AI adalah sistem komputer yang dapat melakukan tugas-tugas yang biasanya membutuhkan kecerdasan manusia … Banyak dari sistem kecerdasan buatan ini didorong oleh pembelajaran mesin, beberapa di antaranya didorong oleh pembelajaran mendalam, dan beberapa di antaranya didorong oleh hal-hal yang sangat membosankan seperti aturan.

Kecerdasan buatan umumnya terbagi dalam dua kategori besar:

  • AI Sempit: Jenis kecerdasan buatan ini, kadang-kadang disebut sebagai “AI lemah,” beroperasi dalam konteks terbatas dan merupakan simulasi kecerdasan manusia. AI sempit sering difokuskan untuk melakukan satu tugas dengan sangat baik, dan sementara mesin-mesin ini mungkin tampak cerdas, mereka beroperasi di bawah batasan dan batasan yang jauh lebih besar daripada kecerdasan manusia yang paling dasar.
  • Kecerdasan Buatan (AGI): AGI kadang-kadang disebut sebagai “AI yang Kuat” dan merupakan jenis kecerdasan buatan yang terlihat di film, seperti robot Westworld dan Star Trek: The Next Generation of Data. AGI adalah mesin dengan kecerdasan umum, dan seperti manusia, ia dapat menerapkan kecerdasan itu untuk menyelesaikan masalah apa pun.

Kecerdasan buatan yang sempit

AI sempit ada di sekitar kita dan merupakan realisasi kecerdasan buatan paling sukses yang pernah ada. Berfokus pada melakukan tugas-tugas tertentu, Narrow AI telah mengalami banyak terobosan dalam dekade terakhir yang telah “membawa manfaat sosial yang besar dan berkontribusi pada vitalitas ekonomi negara.”

Contoh AI sempit meliputi:

  • Google Penelusuran
  • Perangkat Lunak Pengenalan Gambar
  • Siri, Alexa, dan asisten pribadi lainnya
  • Mobil self-driving
  • IBM Watson

 

Pembelajaran Mesin dan Pembelajaran Mendalam

Sebagian besar Narrow AI didukung oleh terobosan dalam pembelajaran mesin dan pembelajaran mendalam. Memahami perbedaan antara kecerdasan buatan, pembelajaran mesin, dan pembelajaran mendalam dapat membingungkan. Pemodal ventura Frank Chen memberikan gambaran yang baik tentang bagaimana membedakan di antara mereka, menyatakan:

Sederhananya, pembelajaran mesin memberi makan data ke komputer dan menggunakan teknik statistik untuk “belajar” bagaimana secara bertahap meningkatkan tugas tanpa diprogram secara khusus untuk tugas itu, menghilangkan kebutuhan untuk menulis jutaan baris kode. Pembelajaran mesin  terdiri dari pembelajaran yang  diawasi (menggunakan  kumpulan data berlabel)  dan pembelajaran tanpa pengawasan (menggunakan kumpulan data tanpa label)  。

Pembelajaran mendalam adalah jenis pembelajaran mesin yang melakukan input melalui arsitektur jaringan saraf yang terinspirasi secara biologis. Jaringan saraf berisi banyak lapisan tersembunyi di mana data diproses, memungkinkan mesin untuk “lebih dalam” ke dalam pembelajaran dan membuat koneksi dan input tertimbang untuk hasil terbaik.

kecerdasan buatan

Penciptaan mesin dengan kecerdasan tingkat manusia yang dapat diterapkan pada tugas apa pun adalah cawan suci bagi banyak peneliti AI, tetapi pencarian AGI penuh dengan kesulitan.

Sementara pencarian untuk “algoritma universal untuk belajar dan bertindak di lingkungan apa pun” (Russel dan Norvig 27) bukanlah hal baru, waktu belum secara inheren mengurangi kesulitan menciptakan mesin dengan seperangkat kemampuan kognitif yang lengkap.

AGI telah lama menjadi inspirasi sci-fi dystopian di mana robot super cerdas membanjiri umat manusia, tetapi para ahli setuju bahwa ia tidak perlu khawatir segera.

 

 Sejarah Singkat Kecerdasan Buatan

Robot dan artefak cerdas pertama kali muncul dalam mitologi Yunani kuno. Perkembangan sirothyisme Aristoteles dan penggunaan penalaran deduktif adalah momen kunci dalam upaya umat manusia untuk memahami kecerdasannya sendiri. Akarnya panjang dan dalam, tetapi sejarah kecerdasan buatan seperti yang kita pikirkan saat ini berlangsung kurang dari satu abad. Di bawah ini adalah sekilas tentang beberapa peristiwa terpenting dalam AI.

Tahun 1940-an

  • (1943) Warren McCullough dan Walter Pitts menerbitkan “The Logical Computation of Ideas Inherent in Neural Activity.” Makalah ini mengusulkan model matematika pertama untuk membangun jaringan saraf.
  • Donald Hebb, dalam bukunya Organization of Behavior: A Neuropsychological Theory, mengusulkan teori bahwa jalur saraf diciptakan dari pengalaman, dan bahwa hubungan antara neuron menjadi lebih kuat semakin sering mereka digunakan. Pembelajaran Hebbian terus menjadi model penting bagi AI.

Tahun 1950-an

  • (1950) Alan Turing menerbitkan “Computing Machines and Intelligence” dan mengusulkan apa yang dikenal sebagai tes Turing, metode untuk menentukan apakah sebuah mesin itu cerdas.
  • (1950) Sarjana Harvard Marvin Minsky dan Dean Edmonds membangun komputer jaringan saraf pertama, SNARC.
  • (1950) Claude Shannon menerbitkan risalahnya “Pemrograman Komputer untuk Bermain Catur”.
  • (1950) Isaac Asimov menerbitkan The Three Laws of Robotics.
  • (1952) Arthur Samuel mengembangkan program belajar mandiri untuk bermain catur.
  • (1954) Dalam percobaan terjemahan mesin antara Georgetown dan IBM, 60 kalimat Rusia yang dipilih dengan cermat secara otomatis diterjemahkan ke dalam bahasa Inggris.
  • (1956) Istilah kecerdasan buatan diciptakan dalam Dartmouth Summer Research Project on Artificial Intelligence. Dipimpin oleh John McCarthy, konferensi ini mendefinisikan ruang lingkup dan tujuan AI dan secara luas dianggap sebagai kelahiran kecerdasan buatan yang kita kenal sekarang.
  • (1956) Allen Newell dan Herbert Simon mendemonstrasikan program inferensi pertama, Logician (LT).
  • (1958) John McCarthy mengembangkan bahasa pemrograman AI Lisp dan menerbitkan makalahnya “Programs with Common Sense”. Makalah ini mengusulkan pengambil saran fiktif yang merupakan sistem AI lengkap dengan kemampuan untuk belajar dari pengalaman seefektif manusia.
  • (1959) Allen Newell, Herbert Simon dan J.C. Shaw mengembangkan General Problem Solver (GPS), sebuah program yang dirancang untuk meniru pemecahan masalah manusia.
  • (1959) Herbert Gerelnter mengembangkan Program Prober Teorema Geometris.
  • (1959) Arthur Samuel menciptakan istilah pembelajaran mesin saat belajar di IBM.
  • (1959) John McCarthy dan Marvin Minsky mendirikan Proyek Kecerdasan Buatan MIT.

Tahun 1960-an

  • (1963) John McCarthy membuka Laboratorium AI di Universitas Stanford.
  • (1966) Sebuah laporan oleh pemerintah AS dari Advisory Committee on Automatic Language Processing (ALPAC) merinci kurangnya kemajuan dalam penelitian terjemahan mesin, sebuah inisiatif besar dari Perang Dingin yang menjanjikan terjemahan bahasa Rusia secara otomatis dan segera. Laporan ALPAC mengarah pada pembatalan semua proyek MT yang didanai pemerintah.
  • (1969) Sistem ahli pertama yang berhasil dikembangkan di DENDRAL, sebuah program XX, dan MYCIN dibuat di Stanford yang dirancang untuk mendiagnosis infeksi darah.

Tahun 1970-an

  • (1972) Bahasa pemrograman logika PROLOG dibuat.
  • (1973) Laporan Light Hill, yang merinci kekecewaan penelitian AI, dirilis oleh pemerintah Inggris dan akan menyebabkan pemotongan dana yang signifikan untuk proyek kecerdasan buatan.
  • (1974-1980) Ketidakpuasan dengan kemajuan dalam pengembangan AI menyebabkan pengurangan yang signifikan dalam hibah akademik DARPA. Ditambah dengan laporan ALPAC sebelumnya dan “Lighthill Report” tahun sebelumnya, pendanaan untuk kecerdasan buatan telah mengering dan penelitian telah mandek. Periode ini dikenal sebagai “Musim Dingin AI Pertama”.

Tahun 1980-an

  • (1980) Digital Equipment Corporation mengembangkan sistem pakar komersial pertama yang sukses, R1 (juga dikenal sebagai XCON). Dirancang untuk menyusun pesanan untuk sistem komputer baru, R1 akan memulai ledakan investasi dalam sistem pakar yang akan berlangsung hampir satu dekade dan secara efektif mengakhiri “musim dingin AI” pertama.
  • (1982) Kementerian Perdagangan dan Industri Internasional Jepang meluncurkan proyek sistem komputer generasi kelima yang ambisius. Tujuan FGCS adalah untuk mengembangkan platform untuk kinerja seperti superkomputer dan pengembangan AI.
  • (1983) Menanggapi FGCS Jepang, pemerintah A.S. meluncurkan inisiatif komputasi strategis untuk menyediakan penelitian komputasi dan kecerdasan buatan tingkat lanjut yang didanai oleh DARPA.
  • (1985) Perusahaan menghabiskan lebih dari $1 miliar per tahun untuk sistem pakar, dan seluruh industri yang dikenal sebagai pasar mesin Lisp bermunculan untuk mendukung mereka. Perusahaan seperti Symbolics dan Lisp Machines Inc sedang membangun komputer khusus yang berjalan di atas bahasa pemrograman AI Lisp.
  • (1987-1993) Seiring kemajuan teknologi komputasi, alternatif yang lebih murah muncul, dan pasar mesin Lisp runtuh pada tahun 1987, mengantarkan “musim dingin AI kedua”. Selama waktu ini, sistem pakar ternyata terlalu mahal untuk dirawat dan diperbarui, dan akhirnya menjadi tidak didukung.

Tahun 1990-an

  • (1991) Militer AS mengerahkan DART, alat perencanaan dan penjadwalan logistik otomatis, selama Perang Teluk.
  • (1992) Jepang menghentikan proyek FGCS pada tahun 1992 karena gagal mencapai tujuan ambisius yang diuraikan satu dekade sebelumnya.
  • (1993) DARPA mengakhiri inisiatif komputasi strategisnya pada tahun 1993 setelah menghabiskan hampir $ 1 miliar dan jauh di bawah ekspektasi.
  • (1997) Deep Blue IBM mengalahkan juara catur dunia Gary Kasparov

Tahun 2000-an

  • (2005) Stanley, sebuah mobil self-driving, memenangkan DARPA Grand Challenge.
  • (2005) Militer AS mulai berinvestasi dalam robot otonom seperti Big Dog boston Dynamics dan PackBot i-robot.
  • (2008) Google membawa terobosan dalam pengenalan suara dan memperkenalkan fitur ini ke aplikasi iPhone.

2010-2014

  • (2011) Watson dari IBM menginjak-injak kompetisi Jeopardy!
  • (2011) Apple merilis asisten virtual bertenaga AI Siri melalui sistem operasi iOS-nya.
  • (2012) Andrew Ng, pendiri Google Brain Deep Learning Project, menggunakan algoritma pembelajaran mendalam untuk menyediakan jaringan saraf dengan 10 juta video YouTube sebagai set pelatihan. Jaringan saraf telah belajar mengenali kucing tanpa diberi tahu apa adanya, mengantarkan era terobosan jaringan saraf dan pendanaan pembelajaran mendalam.
  • (2014) Google membuat mobil self-driving pertama yang lulus tes mengemudi negara bagian.
  • (2014) Alexa Virtual Home Amazon dirilis

2015-2021

  • (2016) AlphaGo Google DeepMind mengalahkan pemain Go Lee Sedol. Kompleksitas permainan Tiongkok kuno dipandang sebagai rintangan utama untuk diatasi dengan AI.
  • (2016) “Robot citizen” pertama, robot humanoid bernama Sophia, diciptakan oleh Hanson Robotics dan mampu mengenali wajah, komunikasi verbal, dan ekspresi wajah.
  • (2018) Google telah merilis mesin pemrosesan bahasa alaminya, BERT, untuk mengurangi hambatan terjemahan dan pemahaman oleh aplikasi pembelajaran mesin.
  • (2018) Waymo telah meluncurkan layanan Waymo One, memungkinkan pengguna di wilayah metropolitan Phoenix untuk meminta penjemputan dari salah satu mobil self-driving perusahaan.
  • (2020) Baidu telah merilis algoritma LinearFoldAI kepada tim ilmiah dan medis yang bekerja pada pengembangan vaksin pada tahap awal pandemi SARS-CoV-2. Algoritma ini dapat memprediksi urutan RNA virus hanya dalam 27 detik, yang 120 kali lebih cepat daripada metode lain.

 

Leave a Reply

Your email address will not be published.