Augusta Ada King, condesa de Lovelace, nació en Londres el 10 de diciembre de 1815. Mejor conocido como Ada Lovelacese considera el inventor del primer algoritmo capaz de ser procesado por una computadora; o, al menos, un precedente para ello. Entre 1842 y 1843, Ada tradujo un artículo de un ingeniero militar italiano, Luigi MenabreaSobre el llamado motor analítico o la máquina de babbage, una calculadora prototipo, nunca fue construida, diseñada por el matemático británico Charles Babbage para trabajar con una máquina de vapor y tarjetas perforadas. Entre esas notas está el Primer programa de computadora de todos los tiemposcreado para que ingenio victoriano lo procesó.
¿Es este realmente el comienzo de la historia de la ¿inteligencia artificial? Hay quienes piensan que sí, pero para la mayoría de los científicos, el precursor más importante de esta rama de la tecnología fue Alan Turingél Creador de la máquina electromecánica que descifró el código de enigma de los nazis durante la Segunda Guerra Mundial. Más tarde, en 1950, Turing publicó un artículo, titulado “Machinería e inteligencia informática”, en el que preguntó si las máquinas pueden pensar. Para responder, desarrolló la famosa prueba de Turing: si las respuestas a esta prueba nos hacen creer que estamos tratando con una persona, concluiremos que somos.
En todo caso, El término ‘inteligencia artificial’ no fue acuñada hasta 1956 en Dartmouth College (EE. UU.), Durante una conferencia organizada por el matemático John McCarthy (1927-2011) al que asistieron algunos de los padres reconocidos de esta tecnología de tecnologías, como Marvin Minsky y Claude Shannon. McCarthy lo definió como “la ciencia e ingeniería de la creación máquinas inteligentesEspecialmente programas de computadora.
“La IA está relacionada con la tarea de usar computadoras para comprender la inteligencia humana, pero no se limita a los métodos que son biológicamente observables”. En 1958, este experto fundó el Laboratorio de inteligencia artificial, en el Instituto Tecnológico de Massachusetts (CON), convencido de que podría hacer que las máquinas razonen para sí mismas algún día.
“La velocidad y la memoria de las computadoras de hoy”, dijo McCarthy en la década de 1960, “puede ser insuficiente para estimular muchas de las funciones más complejas del cerebro humano. Pero el principal obstáculo no es esta incapacidad, sino la nuestra para escribir programas que aprovechen al máximo lo que tenemos “.
Una frase con la que una de las figuras más controvertidas en el paisaje de IA está fuertemente de acuerdo: Raymond Kurzweil. Esto nació en 1948, dos años antes de que Turing publicara su prueba. Kurzweil volvió al universo tecnológico al revés con la publicación de la singularidad está cerca (2005), donde predijo, entre otras cosas, que La inteligencia sintética superaría la inteligencia biológica en solo treinta años.
Este profesor de informática y Inteligencia artificial de la Universidad de Stanford y el director de ingeniería de Google llega a decir en su libro que “El poder de las tecnologías de la información está creciendo exponencialmente”.a un ritmo aún mayor de lo que estableció la ley de Moore [esta señala que cada dos años se duplica el número de transistores en un microprocesador y, por tanto, se dobla la capacidad de computación]y actualmente se multiplica por dos cada año. Por lo tanto, hacia el final de esta década [en 2010]Tendremos el hardware necesario para emular la inteligencia humana con supercomputadoras “.
Kurzweil no estaba equivocado. ¡En 2011, Watson, el sistema de inteligencia artificial de IBM, pudo vencer a los mejores concursantes en el Jeopardy del Concurso de Televisión de América del Norte! de preguntas y respuestas. Catorce años antes, otra máquina de IBM, Deep Blue, derrotó al entonces campeón mundial de ajedrez, el ruso Gary Kasparov. Reconoció el año pasado que la inteligencia sintética es capaz de vencer a cualquier humano en este juego, y que nada será lo mismo en el mundo del ajedrez.
Seguramente, cualquiera que haya leído el libro de Kurzweil habrá quedado sorprendido no solo por sus declaraciones, sino también por su forma particular de prepararse para el futuro próximo. Este inventor y científico actualmente lleva alrededor de cien píldoras al día para mantenerse en una salud perfecta y poder criopreservar su cerebro cuando llegue el momento.. Él piensa que puede implantarlo en otro cuerpo o, quién sabe, en una máquina.
“La mayor parte de la inteligencia de nuestra civilización terminará siendo no biológica. A finales de este siglo, tal inteligencia será billones de billones de tiempos más poderosos que la inteligencia humana. Y en el momento de la singularidad, no habrá distinción entre humanos y tecnología. Esto no será porque nos hemos convertido en lo que entendemos hoy como máquinas, sino porque las máquinas habrán progresado para convertirse en humanos y más que humanos “.
Las ideas innovadoras de McCarthy y, sobre todo, Kurzweil tienen su correlación en las de otro de los teóricos y científicos con la mayor legión de seguidores. Andrew Yan-tak ng, sin continuar, es el autor de Avances e investigación en aprendizaje automático, aprendizaje profundo y visión por computadora, Tres de los campos de inteligencia artificial con la mayor proyección de hoy. Ng dejó la compañía de tecnología china Baidu, y antes de eso Google, para dedicarse a la universidad, es profesor en Stanford (California), y trabaja en proyectos como el helicóptero autónomo.
Cuando se despidió de Baidu, el científico británico anunció en una entrevista con la revista MIT Technology Review que centraría su futuro en aplicar la inteligencia artificial a la salud y la educación, y que los avances en los que está trabajando en el aprendizaje de máquinas y profundas pronto tendrá visibilidad: “Todos tendremos autos autónomos, computadoras con las que hablaremos naturalmente y robots de salud que comprenderán nuestras enfermedades”.
Por lo tanto, las empresas de consultoría como PwC señalan que la inteligencia artificial está destinada a desempeñar un papel principal, si aún no lo está haciendo, enLa próxima revolución tecnológica, siguiendo los pasos de Internet y la movilidad. Con un impacto esperado del 14% de crecimiento en el PIB global para 2030, transformará las estrategias y los modelos operativos del mundo de los negocios.
AI se puede definir como un proceso diseñado para Operaciones replicadas que se consideran típicas de la inteligencia humana. El aprendizaje automático es una disciplina dentro de la IA que crea sistemas que aprenden.
Al principio era capaz de automatizar un conjunto de tareas repetitivas basadas en ciertas características, pero hoy la máquina en sí ya puede seleccionar las más adecuadas para llevar a cabo su trabajo. E incluso para que sean Son las máquinas que enseñan a otros a construir dispositivos más inteligentes. Hablamos de enseñanza de máquinasUn sistema en el que Google ha estado trabajando durante algún tiempo, aunque actores como Microsoft no lo ven como plausible a corto y mediano plazo.
El aprendizaje profundo es una técnica específica de aprendizaje automático que permite aprendizaje profundo utilizando modelos de computadora similares a las redes neuronales del cerebro humano. Los algoritmos permiten que la computadora aprenda de los datos, por lo que son estos algoritmos los que determinan las reglas de comportamiento, en función de las conclusiones obtenidas. Por lo tanto, no es necesario establecer reglas de conducta que replicen el comportamiento de los seres humanos en situaciones específicas.
La aplicación del aprendizaje profundo permite interpretar lo que nos rodea a través del reconocimiento de imágenes o el análisis del lenguaje natural. Este es el aspecto más centrado en replicar las habilidades sensibles de las personas.
En este sentido, un informe de PwC señala lo siguiente: “Con la interrupción digital y el consiguiente aumento de los dispositivos móviles, la generación de información se ha disparado en los últimos años. Esta situación de abundancia implica desafíos no solo en la gestión del volumen de datos, sino también en el tratamiento de sus diferentes formatos. La creciente generación de información no estructurada, que equivale a alrededor del 88% del total, requiere tecnologías que permitan identificarse y transformarse en datos útiles. Para ser identificado y etiquetado correctamente, los sonidos e imágenes requieren una comprensión del lenguaje natural o la visión de la computadora “.
La aplicación de IA para replicar tales sentidos humanos se conoce como servicios cognitivos.
Esta tecnología permite, por ejemplo, interpretar las expresiones faciales de la persona que habla con una cámara frontal. Lograr esta comprensión automática de los datos no es fácil, porque el programa no solo tiene que leer o escuchar la información, sino que también se relaciona e interpretala para actuar o responder en consecuencia.
Fuente Informativa