Gratis & sin compromisoHabla con Paolo ahora
Reservar llamada →
Blog

Breve Historia de la Inteligencia Artificial

Paolo De Giglio
Paolo De Giglio
9 min
Breve Historia de la Inteligencia Artificial

Breve Historia de la Inteligencia Artificial

Historia de la Inteligencia Artificial

La historia de la inteligencia artificial se remonta a la antigüedad, cuando los filósofos contemplaban el concepto de seres artificiales, hombres mecánicos y otros autómatas que podrían existir o potencialmente llegar a existir.

La creación de máquinas inteligentes ha fascinado a la humanidad durante siglos y su evolución ha sido nada menos que notable. Desde los primeros razonamientos teóricos hasta los modernos avances en el aprendizaje automático y la robótica, la búsqueda de la creación de máquinas inteligentes ha sido una fuerza impulsora en el mundo de la tecnología.

Gracias a los primeros pensadores, la inteligencia artificial se fue haciendo cada vez más tangible a lo largo del siglo XVIII y más allá. Los filósofos contemplaron cómo el pensamiento humano podría mecanizarse y manipularse por máquinas inteligentes no humanas.

Los procesos de pensamiento que alimentaron el interés por la IA surgieron cuando los filósofos clásicos, los matemáticos y los lógicos consideraron la manipulación de símbolos (mecánicamente), lo que llevó finalmente a la creación del ordenador digital programable, el Atanasoff Berry Computer (ABC) en los años 40.

Este invento en particular inspiró a los científicos a avanzar con la idea de crear un "cerebro electrónico", es decir, un ser artificialmente inteligente.

Pasaron casi diez años antes de que la IA se encontrara en un campo como el actual.

Alan Turing, matemático entre otras cosas, propuso una prueba que mide la capacidad de una máquina para replicar las acciones humanas de manera indistinguible. Más tarde en esa década, el campo de la investigación en IA fue fundado durante una conferencia de verano en el Dartmouth College a mediados de los años 50, donde John McCarthy, informático y científico cognitivo, acuñó el término "inteligencia artificial".

Desde los años 50 hasta hoy, una infinidad de científicos, programadores, lógicos y teóricos han contribuido a consolidar nuestra comprensión moderna de la inteligencia artificial.

Cada década ha visto innovaciones y descubrimientos revolucionarios que han cambiado radicalmente nuestra forma de concebir la IA, transformándola de fantasía lejana en una realidad tangible para las generaciones presentes y futuras.

En particular, siguiendo el orden cronológico, la evolución de las teorías de la inteligencia artificial continuó así:

El Nacimiento de la Inteligencia Artificial Teórica (desde 1940)

El período entre 1940 y 1960 estuvo fuertemente marcado por la conjunción de desarrollos tecnológicos (de los que la Segunda Guerra Mundial fue un acelerador) y el deseo de entender cómo unir el funcionamiento de las máquinas y los seres orgánicos.

Para Norbert Wiener, pionero de la cibernética, el objetivo era unificar la teoría matemática, la electrónica y la automatización como "una teoría global de control y comunicación, tanto en los animales como en las máquinas".

Poco antes, un primer modelo matemático e informático de la neurona biológica (neurona formal) había sido desarrollado por Warren McCulloch y Walter Pitts ya en 1943.

A principios de 1950, John Von Neumann y Alan Turing fueron los padres fundadores de la tecnología que lo hizo posible. Realizaron la transición de los ordenadores con lógica decimal del siglo XIX (que gestionaba valores de 0 a 9) a la lógica binaria de las máquinas (que se basa en el álgebra de Boole, gestionando 0 o 1).

Los dos investigadores formalizaron así la arquitectura de nuestros ordenadores contemporáneos y demostraron que se trataba de una máquina universal, capaz de ejecutar lo que está programado. Turing, por su parte, planteó por primera vez la cuestión de la posible inteligencia de una máquina en su célebre artículo de 1950 "Computing Machinery and Intelligence" y describió un "juego de imitación", en el que un ser humano debería ser capaz de distinguir en un diálogo telepático si está hablando con un hombre o con una máquina.

A pesar de la controversia que rodea este artículo (esta "prueba de Turing" no parece calificar para muchos expertos), a menudo se cita como la fuente del debate sobre la distinción entre el ser humano y la máquina.

El acrónimo "IA" fue acuñado por John McCarthy del MIT (Massachusetts Institute of Technology). Marvin Minsky de la Universidad Carnegie-Mellon la define en particular como "la creación de programas informáticos que realizan tareas ejecutadas de manera más satisfactoria por los seres humanos, ya que requieren procesos mentales de alto nivel como: aprendizaje perceptivo, organización de la memoria y razonamiento crítico".

La conferencia de verano de 1956 en el Dartmouth College se considera la fundadora de la disciplina. Merece la pena destacar el gran éxito de lo que no fue una conferencia, sino más bien un workshop. Solo seis personas, entre ellas McCarthy y Minsky, estuvieron constantemente presentes durante este trabajo (que se basaba esencialmente en desarrollos basados en la lógica formal).

A pesar de que la tecnología seguía siendo fascinante y prometedora, la popularidad disminuyó a principios de los años 60. Las máquinas tenían una memoria muy limitada, lo que dificultaba el uso de un lenguaje informático.

En el lejano 1957, el célebre economista y sociólogo Herbert Simon profetizó que la Inteligencia Artificial conseguiría vencer a un ser humano al ajedrez en los siguientes 10 años.

Sin embargo, la IA cayó en un largo invierno y Simon tuvo que esperar nada menos que 30 años antes de que su visión se hiciera realidad.

La Inteligencia Artificial se convierte en realidad (desde 1970)

En 1968, Stanley Kubrick dirigía la película "2001: Una Odisea del Espacio" donde un ordenador —HAL 9000— resumía en sí mismo el conjunto de las cuestiones éticas planteadas por la IA: ¿representará un alto nivel de sofisticación, un bien para la humanidad o un peligro?

El impacto de la película no será naturalmente científico, pero contribuirá a popularizar el tema, al igual que el autor de ciencia ficción Philip K. Dick, que nunca dejó de preguntarse si, algún día, las máquinas experimentarían emociones.

Fue con la llegada de los primeros microprocesadores a finales de los años 70 que la IA despegó de nuevo y entró en la edad de oro de los sistemas expertos.

El camino fue abierto efectivamente en el MIT en 1965 con DENDRAL (sistema experto especializado en química molecular) y en la Universidad de Stanford en 1972 con MYCIN (sistema especializado en el diagnóstico de enfermedades de la sangre y la prescripción de medicamentos). Estos sistemas se basaban en un "motor inferencial", programado para ser un espejo lógico del razonamiento humano. Insertando los datos, el motor proporcionaba respuestas de alto nivel de competencia.

Las promesas preveían un desarrollo masivo, pero la euforia volvió a decaer a finales de los años 80 y principios de los 90. La programación de dicho conocimiento requería en efecto mucho esfuerzo y de 200 a 300 reglas, había un efecto "caja negra" en el que no estaba claro cómo razonaba la máquina.

El desarrollo y el mantenimiento se volvieron entonces extremadamente problemáticos y —sobre todo— era posible encontrar maneras más rápidas y, en muchos otros aspectos, menos complejas y menos costosas. Hay que recordar que en los años 90, el término inteligencia artificial casi se había convertido en tabú y se utilizaban variaciones más modestas, como "cálculo avanzado".

El éxito en mayo de 1997 de Deep Blue (sistema experto de IBM) en el juego de ajedrez contra Garry Kasparov realizó la profecía de Herbert Simon de 1957, treinta años después, pero no sustentó la financiación y el desarrollo de esta forma de IA.

El funcionamiento de Deep Blue se basaba en un algoritmo de fuerza bruta sistemático, en el que se evaluaban y ponderaban todas las jugadas posibles.

La derrota del ser humano fue muy simbólica en la historia, pero Deep Blue solo había logrado tratar un perímetro muy limitado, muy lejos de la capacidad de modelar la complejidad del mundo.

Ajedrez Máquina contra Hombre

La Inteligencia Artificial y su esplendor en el Tercer Milenio (desde 2000)

El nuevo y emocionante boom de la disciplina fue explicado por dos factores clave que impulsaron al sector alrededor de 2010.

En primer lugar, el acceso a volúmenes masivos de datos. En el pasado, para utilizar algoritmos de clasificación y reconocimiento de imágenes, era necesario realizar muestreos manuales. Hoy, una simple búsqueda en Google puede encontrar millones de datos en pocos segundos.

La extraordinaria eficiencia de las tarjetas gráficas de los ordenadores para acelerar el cálculo de los algoritmos de aprendizaje representó un verdadero avance. Antes de 2010, el procesamiento de toda la muestra requería semanas, debido a la iteratividad del proceso.

Gracias a la potencia de cálculo de estas tarjetas (capaces de realizar más de un billón de transacciones por segundo), se logró un notable progreso a un coste financiero contenido.

El reciente equipamiento tecnológico ha permitido obtener éxitos públicos significativos y aumentar la financiación: en 2011, Watson, la IA de IBM, venció a dos campeones de Jeopardy! En 2012, Google X (el laboratorio de investigación de Google) fue capaz de hacer que sus algoritmos reconocieran la imagen de un gato en un vídeo. Para esta tarea se utilizaron más de 16.000 procesadores, pero el potencial es extraordinario: una máquina aprende a distinguir algo.

En 2016, AlphaGO (la IA de Google especializada en el juego del Go) derrotó al campeón europeo (Fan Hui) y al campeón mundial (Lee Sedol), para luego superarse a sí misma con AlphaGo Zero. Hay que subrayar que el juego del Go tiene una combinatoria mucho más compleja que el ajedrez (superior al número de partículas en el universo) y que no es posible obtener resultados tan significativos en términos de fuerza bruta (como ocurrió con Deep Blue en 1997).

¿De dónde nació este milagro? Una revolución completa del paradigma de los sistemas expertos.

El enfoque se volvió inductivo: ya no se trata de codificar reglas como para los sistemas expertos, sino de permitir que los ordenadores las descubran de forma autónoma mediante correlación y clasificación, basándose en una gran cantidad de datos.

Entre las técnicas de aprendizaje automático, el deep learning parece el más prometedor para numerosas aplicaciones, entre ellas el reconocimiento de voz o de imágenes. En 2003, Geoffrey Hinton de la Universidad de Toronto, Yoshua Bengio de la Universidad de Montreal y Yann LeCun de la Universidad de Nueva York decidieron iniciar un programa de investigación para actualizar las redes neuronales.

Se lograron increíbles resultados gracias a los experimentos realizados simultáneamente por Microsoft, Google e IBM. Gracias al deep learning, las tasas de error para el reconocimiento de voz se redujeron a la mitad.

En el futuro

La búsqueda incesante de progreso en este campo ha llevado a una profunda transformación de nuestra conciencia colectiva, y seguimos asistiendo a un cambio de paradigma en la forma en que interactuamos con la tecnología.

Mirando al futuro, las posibilidades para la IA parecen infinitas y solo podemos imaginar los increíbles avances que nos esperan.

(Haz clic aquí para leer nuestra guía completa sobre inteligencia artificial para empresas)