Gratuit & fără obligațiiVorbește cu Paolo acum
Rezervă un apel →
Blog

Scurtă Istorie a Inteligenței Artificiale

Paolo De Giglio
Paolo De Giglio
8 min
Scurtă Istorie a Inteligenței Artificiale

Scurtă Istorie a Inteligenței Artificiale

Istoria Inteligenței Artificiale

Istoria inteligenței artificiale datează din antichitate, când filozofii contemplau conceptul de ființe artificiale, oameni mecanici și alți automate care ar putea exista sau ar putea veni în existență.

Crearea de mașini inteligente a fascinat umanitatea de secole, iar evoluția sa a fost cu adevărat remarcabilă. De la primele raționamente teoretice la progresele moderne în învățarea automată și robotică, căutarea de a crea mașini inteligente a fost o forță motrice în lumea tehnologiei.

Datorită primilor gânditori, inteligența artificială a devenit din ce în ce mai tangibilă în cursul secolului XVIII și ulterior. Filozofii au contemplat cum gândirea umană ar putea fi mecanizată și manipulată de mașini inteligente non-umane.

Procesele de gândire care au alimentat interesul pentru AI s-au născut când filozofii clasici, matematicienii și logicienii au considerat manipularea simbolurilor (mecanic), conducând în cele din urmă la crearea calculatorului digital programabil, Atanasoff Berry Computer (ABC) în anii '40.

Această invenție specifică a inspirat oamenii de știință să continue cu ideea de a crea un „creier electronic", adică o ființă artificial inteligentă.

Au trecut aproape zece ani înainte ca AI să se afle într-un domeniu precum cel de astăzi.

Alan Turing, matematician printre altele, a propus un test care măsoară capacitatea unei mașini de a replica acțiunile umane în mod indistinct. Mai târziu în acel deceniu, domeniul cercetării AI a fost fondat în cadrul unei conferințe de vară la Dartmouth College la mijlocul anilor '50, unde John McCarthy, informatician și om de știință cognitiv, a creat termenul „inteligență artificială".

Din anii '50 până astăzi, nenumărați oameni de știință, programatori, logicieni și teoreticieni au contribuit la consolidarea înțelegerii noastre moderne a inteligenței artificiale.

Fiecare deceniu a cunoscut inovații și descoperiri revoluționare care au schimbat radical modul nostru de a concepe AI, transformând-o dintr-o fantezie îndepărtată într-o realitate tangibilă pentru generațiile prezente și viitoare.

În particular, mergând în ordine, evoluția teoriilor inteligenței artificiale a continuat astfel:

Nașterea Inteligenței Artificiale Teoretice (din 1940)

Perioada dintre 1940 și 1960 a fost puternic marcată de conjuncția dezvoltărilor tehnologice (al căror accelerator a fost Al Doilea Război Mondial) și de dorința de a înțelege cum să se unească funcționarea mașinilor și a ființelor organice.

Pentru Norbert Wiener, pionier al ciberneticii, obiectivul era unificarea teoriei matematice, a electronicii și a automatizării ca „o teorie globală a controlului și comunicării, atât la animale cât și la mașini".

Cu puțin timp înainte, un prim model matematic și informatic al neuronului biologic (neuronul formal) fusese dezvoltat de Warren McCulloch și Walter Pitts încă din 1943.

La începutul anului 1950, John Von Neumann și Alan Turing au fost părinții fondatori ai tehnologiei care a făcut-o posibilă. Aceștia au realizat tranziția de la calculatoarele cu logică zecimală din secolul XIX (care gestionau valori de la 0 la 9) la logica binară a mașinilor (care se bazează pe algebra lui Boole, gestionând 0 sau 1).

Cei doi cercetători au formalizat astfel arhitectura calculatoarelor noastre contemporane și au demonstrat că era o mașină universală, capabilă să execute ceea ce este programat. Turing, pe de altă parte, a ridicat pentru prima dată întrebarea posibilei inteligențe a unei mașini în celebrul său articol din 1950 „Computing Machinery and Intelligence" și a descris un „joc de imitație", în care o ființă umană ar trebui să fie capabilă să distingă, într-un dialog telepatic, dacă vorbește cu un om sau cu o mașină.

În ciuda controversei care înconjoară acest articol (acest „test Turing" nu pare să se califice pentru mulți experți), el este adesea citat ca sursă a dezbaterii privind distincția dintre ființa umană și mașină.

Acronimul „AI" a fost creat de John McCarthy de la MIT (Massachusetts Institute of Technology). Marvin Minsky de la Universitatea Carnegie-Mellon îl definește în particular ca „crearea de programe informatice care îndeplinesc sarcini efectuate în prezent mai satisfăcător de ființele umane, deoarece necesită procese mentale de nivel înalt cum ar fi: învățarea perceptivă, organizarea memoriei și raționamentul critic".

Conferința de vară din 1956 de la Dartmouth College este considerată fondatoarea disciplinei. Merită menționat marele succes a ceea ce nu a fost o conferință, ci mai degrabă un workshop. Doar șase persoane, printre care McCarthy și Minsky, au rămas constant prezente în cursul acestei munci (care se baza esențialmente pe dezvoltări bazate pe logica formală).

Deși tehnologia era încă fascinantă și promițătoare, popularitatea a scăzut la începutul anilor '60. Mașinile aveau o memorie foarte limitată, îngreunând utilizarea unui limbaj informatic.

În îndepărtatul 1957, celebrul economist și sociolog Herbert Simon a profetizat că Inteligența Artificială va reuși să bată un om la șah în următorii 10 ani.

Cu toate acestea, AI a intrat într-o lungă iarnă și Simon a trebuit să aștepte 30 de ani înainte ca viziunea sa să se împlinească.

Inteligența Artificială devine realitate (din 1970)

În 1968, Stanley Kubrick regiza filmul „2001: O odisee spațială", unde un calculator — HAL 9000 — rezuma în sine întreaga sumă a problemelor etice ridicate de AI: va reprezenta un nivel înalt de sofisticare, un bine pentru umanitate sau un pericol?

Impactul filmului nu va fi, firesc, științific, dar va contribui la popularizarea temei, la fel ca scriitorul de science-fiction Philip K. Dick, care nu va înceta niciodată să se întrebe dacă, într-o zi, mașinile vor experimenta emoții.

A fost odată cu apariția primelor microprocesoare la sfârșitul anilor '70AI a decolat din nou și a intrat în epoca de aur a sistemelor expert.

Calea a fost deschisă efectiv la MIT în 1965 cu DENDRAL (sistem expert specializat în chimie moleculară) și la Universitatea din Stanford în 1972 cu MYCIN (sistem specializat în diagnosticarea bolilor de sânge și prescrierea de medicamente). Aceste sisteme se bazau pe un „motor de inferență", programat să fie o oglindă logică a raționamentului uman. Introducând datele, motorul furniza răspunsuri cu un nivel înalt de competență.

Promisiunile prevedeau o dezvoltare masivă, dar entuziasmul va scădea din nou la sfârșitul anilor '80, începutul anilor '90. Programarea unor astfel de cunoștințe necesita mult efort și, de la 200 la 300 de reguli, exista un efect de „cutie neagră" în care nu era clar cum raționează mașina.

Dezvoltarea și întreținerea au devenit extrem de problematice și — mai ales — existau modalități mai rapide și în multe alte privințe mai puțin complexe și mai puțin costisitoare. Trebuie amintit că în anii '90, termenul inteligență artificială devenise aproape un tabu și se utilizau variații mai modeste, cum ar fi „calcul avansat".

Succesul din mai 1997 al lui Deep Blue (sistem expert IBM) la jocul de șah împotriva lui Garry Kasparov a realizat profeția lui Herbert Simon din 1957 la treizeci de ani după, dar nu a susținut finanțarea și dezvoltarea acestei forme de AI.

Funcționarea lui Deep Blue se baza pe un algoritm de forță brută sistematic, în care toate mișcările posibile erau evaluate și cântărite.

Înfrângerea ființei umane a rămas foarte simbolică în istorie, dar Deep Blue reușise de fapt să trateze un perimetru foarte limitat, foarte departe de capacitatea de a modela complexitatea lumii.

Șah Mașină vs Om

Inteligența Artificială și splendoarea sa în Al Treilea Mileniu (din 2000)

Noul boom entuziasmant al disciplinei a fost explicat de doi factori cheie care au dat avânt sectorului în jurul anului 2010.

În primul rând, accesul la volume masive de date. În trecut, pentru a utiliza algoritmi pentru clasificarea și recunoașterea imaginilor, era necesar să se efectueze eșantionări manuale. Astăzi, o simplă căutare pe Google poate găsi milioane de date în câteva secunde.

Eficiența extraordinară a plăcilor grafice ale calculatoarelor în accelerarea calculului algoritmilor de învățare a reprezentat o adevărată revoluție. Înainte de 2010, procesarea întregului eșantion necesita săptămâni, din cauza iterativității procesului.

Datorită puterii de calcul a acestor plăci (capabile să efectueze peste o mie de miliarde de tranzacții pe secundă), s-a realizat un progres remarcabil la un cost financiar redus.

Echipamentele tehnologice recente au permis obținerea unor succese publice semnificative și creșterea finanțării: în 2011, Watson, AI IBM, a câștigat împotriva a doi campioni la Jeopardy! În 2012, Google X (laboratorul de cercetare al Google) a reușit să facă algoritmii săi să recunoască o imagine de pisică dintr-un videoclip. Pentru această sarcină au fost utilizate peste 16.000 de procesoare, dar potențialul este extraordinar: o mașină învață să distingă ceva.

În 2016, AlphaGO (AI Google specializată în jocul Go) l-a înfrânt pe campionul european (Fan Hui) și pe campionul mondial (Lee Sedol), depășindu-se ulterior cu AlphaGo Zero. Trebuie subliniat că jocul Go are o combinatorie mult mai complexă decât șahul (superioară numărului de particule din univers) și că nu este posibil să se obțină rezultate atât de semnificative în termeni de forță brută (cum s-a întâmplat cu Deep Blue în 1997).

De unde a apărut acest miracol? O revoluție completă a paradigmei sistemelor expert.

Abordarea a devenit inductivă: nu mai este vorba de codificarea regulilor ca în cazul sistemelor expert, ci de a permite calculatoarelor să le descopere autonom prin corelație și clasificare, pe baza unei cantități mari de date.

Dintre tehnicile de învățare automată, deep learning pare cel mai promițător pentru numeroase aplicații, printre care recunoașterea vocală sau a imaginilor. În 2003, Geoffrey Hinton de la Universitatea din Toronto, Yoshua Bengio de la Universitatea din Montreal și Yann LeCun de la Universitatea din New York au decis să lanseze un program de cercetare pentru a actualiza rețelele neuronale.

Rezultate incredibile au fost atinse datorită experimentelor efectuate simultan de Microsoft, Google și IBM. Datorită deep learning, ratele de eroare pentru recunoașterea vocală au fost reduse la jumătate.

În viitor

Căutarea neobosită a progresului în acest domeniu a condus la o transformare profundă a conștiinței noastre colective și continuăm să asistăm la o schimbare de paradigmă în modul în care interacționăm cu tehnologia.

Privind spre viitor, posibilitățile pentru AI par infinite și putem doar imagina progresele incredibile care ne așteaptă.

(Fă clic aici pentru a citi ghidul nostru complet despre inteligența artificială pentru companii)