Ir al contenido

Diferencia entre revisiones de «Historia de la inteligencia artificial»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
m Revertidos los cambios de 71.172.12.178 (disc.) a la última edición de Nicolas1231: vandalismo
 
(No se muestran 133 ediciones intermedias de 87 usuarios)
Línea 1: Línea 1:
{{referencias|t=20171107104701}}
{{referencias|t=20171107104701}}


La '''historia de la [[inteligencia artificial]]''' (IA) comenzó en la antigüedad, con mitos, historias y rumores sobre seres artificiales dotados de [[inteligencia]] o conciencia por parte de maestros artesanos. Las semillas de la IA moderna fueron plantadas por [[Filosofía|filósofos]] que intentaron describir el proceso del [[Pensamiento|pensamiento humano]] como la manipulación mecánica de símbolos. Este trabajo culminó con la invención de la [[Computadora|computadora digital]] programable en la década de 1940, una máquina basada en la esencia abstracta del [[razonamiento]] matemático. Este dispositivo y las ideas detrás de él inspiraron a un puñado de [[Científico|científicos]] a comenzar a discutir seriamente la posibilidad de construir un [[Cerebro artificial|cerebro electrónico]].
La '''[[inteligencia artificial]]''' surge definitivamente a partir de algunos trabajos publicados en la década de 1940 que no tuvieron gran repercusión, pero a partir del influyente trabajo en [[1950]] de [[Alan Turing]], [[Matemática|matemático]] [[Reino Unido|británico]], se abre una nueva disciplina de las ciencias de la información.<ref>{{Cite web|url=https://www.routledge.com/Artificial-Intelligence-Business-and-Civilization-Our-Fate-Made-in-Machines/Kaplan/p/book/9781032155319|title=Andreas Kaplan (2022) Artificial Intelligence, Business and Civilization - Our Fate Made in Machines, Routledge, ISBN 9781032155319}}</ref>


El campo de la investigación de la IA se fundó en un taller celebrado en el campus del [[Dartmouth College]], en [[Estados Unidos]], durante el verano de 1956.{{sfn|Kaplan|Haenlein|2018}}Aquellos que asistieron se convertirían en los líderes de la investigación en IA durante décadas. Muchos de ellos predijeron que una máquina tan inteligente como un ser humano existiría en no más de una generación, y recibieron millones de dólares para hacer realidad esta visión.{{sfn|Newquist|1994|pp=143–156}}
Si bien las ideas esenciales se remontan a la [[lógica]] y [[algoritmos]] de los griegos, y a las [[matemáticas]] de los árabes, varios siglos antes de Cristo, el concepto de obtener razonamiento artificial aparece en el {{siglo|XIV||s}}. A finales del {{siglo|XIX||s}} se obtienen [[Lógica formal|lógicas formales]] suficientemente poderosas y, a mediados del {{siglo|XX||s}}, se obtienen máquinas capaces de hacer uso de tales lógicas y algoritmos de solución.


Al final, resultó evidente que los investigadores habían subestimado enormemente la dificultad del proyecto. En 1974, en respuesta a las críticas de [[James Lighthill]] y a la presión constante del [[Congreso de los Estados Unidos|Congreso de Estados Unidos]], los [[Gobierno federal de los Estados Unidos|gobiernos de Estados Unidos]] y [[Gran Bretaña]] dejaron de financiar investigaciones no dirigidas sobre inteligencia artificial. Siete años más tarde, una iniciativa visionaria del [[Gobierno de Japón|gobierno japonés]] inspiró a los gobiernos y a la industria a proporcionar a la IA miles de millones de dólares, pero a finales de la década de 1980 los [[Inversor ángel|inversores]] se desilusionaron y volvieron a retirar la financiación. Los años difíciles que siguieron se conocerían más tarde como el «invierno de la IA» (''AI Winter'' en inglés). La IA fue criticada en la prensa y evitada por la industria hasta mediados de la década de 2000, pero la investigación y la financiación continuaron creciendo bajo otros nombres.
== Punto de inflexión de la disciplina ==


En los años 1990 y principios de 2000, el [[aprendizaje automático]] se aplicó a muchos problemas en la academia y la industria. El éxito se debió a la disponibilidad de [[hardware]] informático potente, la recopilación de conjuntos de [[Dato|datos]] inmensos y la aplicación de sólidos métodos matemáticos. En 2012, el [[aprendizaje profundo]] demostró ser una tecnología revolucionaria, eclipsando todos los demás métodos. La arquitectura del [[Transformador generativo preentrenado|transformador]] debutó en 2017 y se utilizó para producir aplicaciones de [[Inteligencia artificial generativa|IA generativa]]. La inversión en IA se disparó en la década de 2020.
En su histórico artículo de 1950, Turing propuso que la pregunta «¿puede pensar una máquina?» era demasiado filosófica para tener valor y, para hacerlo más concreto, propuso un «juego de imitación», la [[prueba de Turing]], en la que intervienen dos personas y una computadora. Una persona, el interrogador, se sienta en una sala y teclea preguntas en la [[terminal de computadora|terminal]] de una computadora. Cuando aparecen las respuestas en la terminal, el interrogador intenta determinar si fueron hechas por otra persona o por una computadora. Si actúa de manera inteligente, según Turing es inteligente. Turing, señaló que una máquina podría fracasar y aún ser inteligente. Aun así creía que las máquinas podrían superar la prueba a finales del {{siglo|XX||s}}.


== Precursores ==
De todas maneras esta prueba no tuvo el valor práctico que se esperaba, aunque sus repercusiones teóricas son fundamentales. El enfoque de Turing de ver a la inteligencia artificial como una imitación del [[comportamiento humano]] no fue tan práctico a lo largo del tiempo y el enfoque dominante ha sido el del comportamiento racional, de manera similar, en el campo de la aeronáutica se dejó de lado el enfoque de tratar de imitar a los pájaros y se tomó el enfoque de comprender las reglas de [[aerodinámica]]. Aunque desde luego, el enfoque del comportamiento humano y el del pensamiento humano siguen siendo estudiados por las [[Ciencia cognitiva|ciencias cognitivas]] y continúan aportando interesantes resultados a la inteligencia artificial, y viceversas


=== Precursores míticos, ficticios y especulativos ===
== Disciplinas en las que se apoya ==


==== Mitos y leyendas ====
La ciencia no se define, sino que se reconoce. Para la evolución de la inteligencia artificial las dos fuerzas más importantes fueron la [[lógica matemática]], la cual se desarrolla rápidamente a finales del {{siglo|XIX||s}}, y las nuevas ideas acerca de [[computación]] y los avances en electrónica que permitieron la construcción de los primeros computadores en 1940.
En la [[mitología griega]], [[Talos]] era un gigante construido en bronce que actuaba como guardián de la [[Creta|isla de Creta]]. Lanzaba piedras a los barcos de los invasores y completaba 3 circuitos alrededor del perímetro de la isla diariamente.<ref>Talos en el episodio 4 de [[Argonautica]]</ref>Según la ''Bibliotheke'' de [[Pseudo-Apolodoro|Pseudo-Apollodoro]], [[Hefesto]] forjó a Talos con la ayuda de un [[cíclope]] y presentó el autómata como regalo a [[Minos]].<ref>Bibliotheke 1.9.26</ref> En la [[Argonáuticas (Apolonio de Rodas)|Argonautica]], [[Jasón]] y los [[Argonautas]] lo derrotaron mediante un único tapón cerca de su pie que, una vez retirado, permitía que el ''vital ichor'' fluyera fuera de su cuerpo, dejándolo inanimado.<ref>{{Cite book|last=Rhodios|first=Apollonios|title=The Argonautika : Expanded Edition|language=en|date=2007|publisher=University of California Press|isbn=978-0-520-93439-9|pages=355|oclc=811491744}}</ref>
También son fuente de la inteligencia artificial: la [[filosofía]], la [[neurociencia]] y la [[lingüística]]. La lógica matemática ha continuado siendo un área muy activa en la inteligencia artificial. Incluso antes de la existencia de los ordenadores con los sistemas lógicos deductivos.


[[Pigmalión]] fue un legendario rey y escultor de la mitología griega, famoso por su representación en las [[Seis metamorfosis según Ovidio|Metamorfosis de Ovidio]]. En el décimo libro del poema narrativo de [[Ovidio]], Pigmalión se disgusta con las mujeres al presenciar la forma en que las [[Propétides|Propoetides]] se [[Prostitución|prostituyen]].<ref>{{Cite book|last=Morford|first=Mark|title=Classical mythology|language=en|year=2007|isbn=978-0-19-085164-4|publisher=Oxford University Press|location=Oxford|pages=184|oclc=1102437035}}</ref> A pesar de esto, hace ofrendas en el templo de Venus pidiendo a la diosa que le traiga una mujer exactamente como una estatua que él esculpió.
== Orígenes y evolución cronológica ==


==== Leyendas medievales de seres artificiales ====
Los juegos matemáticos antiguos, como el de las [[Torres de Hanói]], muestran el interés por la búsqueda de un modo resolutor, capaz de ganar con los mínimos movimientos posibles.
[[Archivo:Homunculus_Faust.jpg|miniaturadeimagen|Representación de un homúnculo del Fausto de [[Johann Wolfgang von Goethe|Goethe]].]]
En ''[[De la naturaleza de las cosas|De la Naturaleza de las Cosas]]'', escrito por el [[Alquimia|alquimista]] suizo [[Paracelso]], describe un procedimiento que afirma puede fabricar un «hombre artificial». Al colocar el «[[Semen|esperma]] de un hombre» en estiércol de caballo y alimentarlo con el «Arcano de la sangre humana» después de 40 días, la mezcla se convertirá en un infante vivo.<ref>{{Cite book|title=The alchemy reader : from Hermes Trismegistus to Isaac Newton|date=2003|publisher=Cambridge University Press|last=Linden|first=Stanton J.|isbn=0-521-79234-7|location=New York|pages=Ch. 18|oclc=51210362}}</ref>


El relato escrito más antiguo sobre la fabricación de ''golems'' se encuentra en los escritos de ''Eleazar ben Judá de Worms'' a principios del {{siglo|XIII||s}}.<ref>{{Cite web|url=https://www.matthewkressel.net/2015/10/01/36-days-of-judaic-myth-day-24-the-golem-of-prague/|title=36 Days of Judaic Myth: Day 24, The Golem of Prague|access-date=2020-03-15|last=Kressel|first=Matthew|date=2015-10-01|website=Matthew Kressel|language=en}}</ref>Durante la [[Edad Media]], se creía que la animación de un Golem se podía lograr insertando un trozo de papel con cualquiera de los nombres de Dios en la boca de la figura de arcilla.<ref>{{Cite web|url=http://www.jewishencyclopedia.com/articles/6777-golem|title=GOLEM|access-date=2020-03-15|website=www.jewishencyclopedia.com}}</ref>A diferencia de los autómatas legendarios como ''Brazen Heads'',{{sfn|Newquist|1994|p=38}} un Golem no podía hablar.<ref>{{Cite web|url=https://www.sefaria.org/Sanhedrin.65b?lang=bi|title=Sanhedrin 65b|access-date=2020-03-15|website=www.sefaria.org}}</ref>
Cerca de [[300 a. C.|300&nbsp;a.&nbsp;C.]], [[Aristóteles]] fue el primero en describir de manera estructurada un conjunto de reglas, [[silogismos]], que describen una parte del funcionamiento de la mente humana y que, al seguirlas paso a paso, producen conclusiones racionales a partir de premisas dadas.


''Takwin'', la creación artificial de vida, era un tema frecuente en los manuscritos alquímicos [[Ismaelita|ismaelitas]], especialmente los atribuidos a Jabir ibn Hayyan. Los alquimistas [[Islam|islámicos]] intentaron crear una amplia gama de formas de vida a través de su trabajo, desde plantas hasta animales.<ref>{{Cite journal|url=https://repository.upenn.edu/dissertations/AAI9503804|title=The alchemical creation of life (takwin) and other concepts of Genesis in medieval Islam|date=1994|journal=Dissertations Available from ProQuest|pages=1–435|last=O'Connor|first=Kathleen Malone}}</ref>
En [[250 a. C.|250&nbsp;a.&nbsp;C.]] [[Ctesibio]] de [[Alejandría]] construyó la primera máquina autocontrolada, un regulador del flujo de agua que actuaba modificando su comportamiento "racionalmente" (correctamente) pero claramente sin razonamiento.


En ''Fausto: La segunda parte de la tragedia'' de [[Johann Wolfgang von Goethe]], un [[homúnculo]] fabricado alquímicamente, destinado a vivir eternamente en el frasco en el que fue creado, se esfuerza por nacer en un cuerpo humano completo. Sin embargo, al inicio de esta transformación, el frasco se rompe y el homúnculo muere.<ref>{{Cite book|last=Goethe|first=Johann Wolfgang von|title=Faust; a tragedy. Translated, in the original metres ... by Bayard Taylor. Authorised ed., published by special arrangement with Mrs. Bayard Taylor. With a biographical introd|date=1890|publisher=London Ward, Lock|url=https://archive.org/details/fausttragedytran00goetuoft}}</ref>
En [[1315]], [[Ramon Llull]] tuvo la idea de que el razonamiento podía ser efectuado de maneral artificial.


==== Ficción moderna ====
En [[1847]] [[George Boole]] estableció la [[lógica proposicional]] (booleana), mucho más completa que los silogismos de Aristóteles, pero aún algo poco potente.
Para el {{siglo|XIX||s}}, las ideas sobre hombres artificiales y máquinas pensantes se desarrollaron en la [[ficción]], como en «[[Frankenstein]]» de [[Mary Shelley]] o «R.U.R.» ''(Rossum's Universal Robots'') de Karel Čapek,{{sfn|McCorduck|2004|pp=17–25}} y en la especulación, como en «''Darwin among the Machines''» de Samuel Butler,{{sfn|Butler|1863}} y en casos del mundo real, incluyendo «Maelzel's Chess Player» de [[Edgar Allan Poe]]. La IA es un tema común en la [[ciencia ficción]] hasta el presente.<ref>{{Cite journal|url=https://www.nature.com/articles/s42256-019-0020-9|title=Esperanzas y temores por las máquinas inteligentes en la ficción y la realidad|last1=Cave|first1=Stephen|last2=Dihal|first2=Kanta|date=2019|journal=Nature Machine Intelligence|volume=1|issue=2|pages=74–78|language=en|issn=2522-5839|doi=10.1038/s42256-019-0020-9|s2cid=150700981}}</ref>


=== Razonamiento formal ===
En [[1879]] [[Gottlob Frege]] extiende la lógica booleana y obtiene la [[Lógica de primer orden]] la cual cuenta con un mayor poder de expresión y es utilizada universalmente en la actualidad.
La inteligencia artificial se basa en la suposición de que el proceso del pensamiento humano puede ser [[mecanizado]]. El estudio del razonamiento mecánico o «formal» tiene una larga historia. Los filósofos [[Pueblo chino|chinos]], [[indios]] y [[Pueblo griego|griegos]] desarrollaron todos métodos estructurados de deducción formal para el primer milenio antes de [[Cristo]]. Sus ideas fueron desarrolladas a lo largo de los siglos por filósofos como [[Aristóteles]] (quien dio un análisis formal del [[silogismo]]),{{sfn|Russell|Norvig|2021|pp=6 & 7}}[[Euclides]] (cuyos elementos fueron un modelo de razonamiento formal), [[al-Juarismi]] (quien desarrolló el [[álgebra]] y dio su nombre a la palabra «[[algoritmo]]») y filósofos [[Escolástica|escolásticos]] europeos como [[Guillermo de Ockham]] y [[Juan Duns Scoto|Duns Scoto]].{{sfn|Berlinski|2000}}


El filósofo español [[Ramon Llull]] (1232-1315) desarrolló varias máquinas lógicas dedicadas a la producción de conocimiento por medios lógicos;{{sfn|Carreras y Artau|1939}}{{sfn|Russell|Norvig|2021|p=6}}Llull describió sus máquinas como entidades mecánicas que podían combinar verdades básicas e innegables mediante operaciones lógicas simples, producidas por la máquina mediante significados mecánicos, de tal manera que produjeran todo el conocimiento posible.{{sfn|Bonner|2007}}La obra de Llull tuvo una gran influencia en [[Gottfried Leibniz]], quien reformuló sus ideas.{{sfn|Bonner|1985|pp=57–71}}
En [[1903]] [[Lee De Forest]] inventa el [[triodo]], también llamado bulbo o [[válvula de vacío]].
[[Archivo:Gottfried_Wilhelm_Leibniz,_Bernhard_Christoph_Francke.jpg|izquierda|miniaturadeimagen|[[Gottfried Leibniz]], quien especuló que la razón humana podría reducirse a un cálculo mecánico.]]
En el {{siglo|XVII||s}}, Leibniz, [[Thomas Hobbes]] y [[René Descartes]] exploraron la posibilidad de que todo pensamiento racional pudiera volverse tan sistemático como el álgebra o la [[geometría]].<ref>17th century mechanism and AI: {{Harvnb|McCorduck|2004|pp=37–46}}; {{Harvnb|Russell|Norvig|2021|p=6}}; {{Harvnb|Buchanan|2005|p=53}}</ref>Hobbes escribió en [[Leviatán (Thomas Hobbes)|Leviatán]]: «Porque la razón... no es más que calcular, es decir, sumar y restar».<ref>Hobbes and AI: {{Harvnb|Russell|Norvig|2021|p=6}}; {{Harvnb|McCorduck|2004|p=42}}; {{Harvnb|Hobbes|1651|loc=chapter 5}}</ref>Leibniz imaginó un lenguaje universal del razonamiento, la ''[[characteristica universalis]]'', que reduciría la argumentación a cálculo, de modo que «no habría más necesidad de disputa entre dos filósofos que entre dos contables. Porque bastaría tomar sus lápices en la mano, bajar a sus pizarras y decirse el uno al otro (con un amigo como testigo, si quisieran): ''Vamos a calcular''».<ref>Leibniz and AI: {{Harvnb|McCorduck|2004|p=41}}; {{Harvnb|Russell|Norvig|2021|p=6}}}; {{Harvnb|Berlinski|2000|p=12}}; {{Harvnb|Buchanan|2005|p=53}}</ref>Estos filósofos habían comenzado a articular la hipótesis del sistema de símbolos físicos que se convertiría en la fe rectora de la investigación de la IA.


El estudio de la [[lógica matemática]] proporcionó el avance esencial que hizo que la inteligencia artificial pareciera plausible. Las bases se habían sentado con obras como ''Las leyes del pensamiento de [[George Boole|Boole]]'' y ''[[Begriffsschrift]]'' de [[Gottlob Frege|Frege]].{{sfn|Russell|Norvig|2021|p=8}}Basándose en el sistema de Frege, Russell y Whitehead, presentaron un tratamiento formal de los fundamentos de las matemáticas en su obra maestra, los ''[[Principia Mathematica|Principia Mathematica]]'', en 1913. Inspirado por el éxito de Russell, [[David Hilbert]] desafió a los matemáticos de los años 20 y 30 a responder esta pregunta fundamental: «¿puede formalizarse todo el razonamiento matemático?».{{sfn|Berlinski|2000}}Su pregunta fue respondida por la prueba de incompletitud de [[Kurt Gödel|Gödel]],{{sfn|Russell|Norvig|2021|p=9}} la [[máquina de Turing]]{{sfn|Russell|Norvig|2021|p=9}} y el [[Cálculo lambda|cálculo Lambda]] de Church.{{efn|El cálculo lambda fue especialmente importante para la IA, ya que fue una inspiración para Lisp (el lenguaje de programación más importante utilizado en la IA del {{siglo|XX||s}}).
En [[1936]] [[Alan Turing]] publicó un artículo de bastante repercusión sobre los "Números Calculables", un artículo que estableció las bases teóricas para todas las ciencias de computación, y que puede considerarse el origen oficial de la [[informática teórica]]. En este artículo introdujo el concepto de [[Máquina de Turing]], una entidad matemática abstracta que formalizó el concepto de [[algoritmo]] y resultó ser la precursora de las computadoras digitales. Podía conceptualmente leer instrucciones de una cinta de papel perforada y ejecutar todas las operaciones críticas de un computador. El artículo fijó los límites de las ciencias de la computación porque demostró que no es posible resolver problemas con ningún tipo de computador. Con ayuda de su máquina, Turing pudo demostrar que existen problemas irresolubles, de los que ningún ordenador será capaz de obtener su solución, por lo que se le considera el padre de la [[teoría de la computabilidad]].
{{sfn|Crevier|1993|pp=190&nbsp;196,61}}}}


Su respuesta fue sorprendente en dos aspectos. Primero, demostraron que, de hecho, existían límites a lo que la lógica matemática podía lograr. Pero segundo (y más importante para la IA), su trabajo sugirió que, dentro de estos límites, cualquier forma de razonamiento matemático podía ser mecanizada. La tesis de Church-Turing implicaba que un dispositivo mecánico, manipulando símbolos tan simples como 0 y 1, podía imitar cualquier proceso concebible de deducción matemática.{{sfn|Russell|Norvig|2021|p=9}}La idea clave fue la [[Máquina de Turing|máquina de Turing,]] una construcción teórica simple que capturó la esencia de la manipulación de símbolos abstractos.<ref>The Turing machine: {{Harvnb|Newquist|1994|p=56}}; {{Harvnb|McCorduck|2004|pp=63–64}}; {{Harvnb|Crevier|1993|pp=22–24}}; {{Harvnb|Russell|Norvig|2021|p=9}} and see {{Harvnb|Turing|1936–1937}}</ref>Este invento inspiraría a un puñado de científicos a comenzar a discutir la posibilidad de máquinas pensantes.
En [[1940]] [[Alan Turing]] y su equipo construyeron el primer computador electromecánico y en [[1941]] [[Konrad Zuse]] creó la primera computadora programable y el primer lenguaje de programación de alto nivel [[Plankalkül]]. Las siguientes máquinas más potentes, aunque con igual concepto, fueron la ABC y [[ENIAC]].


=== Ciencias de la computación ===
En [[1943]] Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, el cual se considera el primer trabajo del campo de inteligencia artificial, aun cuando todavía no existía el término.
Las máquinas [[Calculadora|calculadoras]] fueron diseñadas o construidas en la antigüedad y a lo largo de la historia por muchas personas, entre ellas Gottfried Leibniz, [[Joseph Marie Jacquard]], [[Charles Babbage]], [[Percy Ludgate]], [[Leonardo Torres Quevedo]], [[Vannevar Bush]], y otros. [[Ada Lovelace]] especuló que la máquina de Babbage era «una máquina pensante o... razonadora», pero advirtió que «es deseable protegerse contra la posibilidad de que surjan ideas exageradas en cuanto a los poderes de la maquina».<ref>Quoted in {{Harvtxt|Russell|Norvig|2021|p=15}}</ref>{{sfn|Menabrea|Lovelace|1843}}


Los primeros [[Computadora|computadores modernos]] fueron las máquinas masivas de la [[Segunda Guerra Mundial]] (como la [[Z3]] de [[Konrad Zuse]], la Heath Robinson y la [[Colossus]] de [[Alan Turing]], y la Berry en la [[Universidad de Pensilvania]]).{{sfn|Russell|Norvig|2021|p=14}} La [[ENIAC]] se basó en los fundamentos teóricos establecidos por Alan Turing y desarrollada por [[John von Neumann]],{{sfn|McCorduck|2004|pp=76–80}} y demostró ser la más influyente.{{sfn|Russell|Norvig|2021|p=14}}
=== Década de 1950 ===


== Nacimiento de la IA (1941-56) ==
En [[1950]] Turing consolidó el campo muy disperso de la [[inteligencia artificial]] con su artículo ''Computing Machinery and Intelligence'', en el que propuso una prueba concreta para determinar si una máquina era inteligente o no, su famosa [[Prueba de Turing]] por lo que se le considera el padre de la inteligencia artificial. Años después Turing se convirtió en el adalid que quienes defendían la posibilidad de emular el pensamiento humano a través de la computación y fue coautor del primer programa para jugar ajedrez.
Las primeras investigaciones sobre máquinas pensantes se inspiraron en una confluencia de ideas que se volvieron prevalentes a finales de la década de 1930, 1940 y principios de la de 1950. Investigaciones recientes en [[neurología]] habían demostrado que el cerebro era una [[red eléctrica]] de [[Neurona|neuronas]] que disparaban en pulsos todo o nada. La cibernética de [[Norbert Wiener]] describió el control y la estabilidad en las redes eléctricas. La teoría de la información de [[Claude Shannon]] describió las señales digitales (es decir, señales «todo o nada»). La teoría de la computación de Alan Turing demostró que cualquier forma de computación podía describirse digitalmente. La estrecha relación entre estas ideas sugirió que podría ser posible construir un «cerebro electrónico».


En las décadas de 1940 y 1950, un puñado de científicos de diversos campos ([[matemáticas]], [[psicología]], [[ingeniería]], [[economía]] y [[Ciencia política|ciencias políticas]]) exploraron varias direcciones de investigación que serían vitales para la investigación posterior de la IA.<ref name=":0">{{Harvnb|McCorduck|2004|pp=51–57, 80–107}}, {{Harvnb|Crevier|1993|pp=27–32}}, {{Harvnb|Russell|Norvig|2003|pp=15, 940}}, {{Harvnb|Moravec|1988|p=3}}, {{Harvnb|Cordeschi|2002|loc=Chap. 5}}.</ref>Alan Turing fue uno de los primeros en investigar seriamente la posibilidad teórica de la «inteligencia artificial». El campo de la «investigación en inteligencia artificial» se fundó como disciplina académica en 1956.{{sfn|Copeland|2004}}<ref>{{Harvnb|McCorduck|2004|pp=111–136}}, {{Harvnb|Crevier|1993|pp=49–51}}, {{Harvnb|Russell|Norvig|2003|p=17}}, {{Harvnb|Newquist|1994|pp=91–112}} and {{Cite web|url=https://www.routledge.com/Artificial-Intelligence-Business-and-Civilization-Our-Fate-Made-in-Machines/Kaplan/p/book/9781032155319|title=Artificial Intelligence, Business and Civilization - Our Fate Made in Machines|access-date=2022-03-11|last=Kaplan|first=Andreas|language=en}}</ref>
En [[1951]] [[William Shockley]] inventa el [[transistor]] de unión. El invento hizo posible una nueva generación de computadoras mucho más rápidas y pequeñas.


=== Test de Turing ===
En [[1956]] se dio el término "inteligencia artificial" en [[Dartmouth College|Dartmouth]] durante una [[Conferencia de Dartmouth|conferencia]] convocada por [[John McCarthy (científico)|John McCarthy]], a la cual asistieron, entre otros, [[Marvin Minsky|Minsky]], [[Allen Newell|Newell]] y [[Herbert Simon|Simon]]. En esta conferencia se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince{{esd}}años.
{{Artículo principal|Test de Turing}}
[[Archivo:Turing test diagram.png|izquierda|miniaturadeimagen|Esquema del test o [[prueba de Turing]]]]
En 1950, Turing publicó un artículo histórico denominado «''[[Computing machinery and intelligence|Computing Machinery and Intelligence]]''», en el que especulaba sobre la posibilidad de crear máquinas que piensen.<ref name=":02">{{Harvnb|McCorduck|2004|pp=51–57, 80–107}}, {{Harvnb|Crevier|1993|pp=27–32}}, {{Harvnb|Russell|Norvig|2003|pp=15, 940}}, {{Harvnb|Moravec|1988|p=3}}, {{Harvnb|Cordeschi|2002|loc=Chap. 5}}.</ref>{{efn|Alan Turing estaba pensando en la inteligencia de las máquinas al menos desde 1941, cuando circuló un artículo sobre inteligencia de las máquinas que podría ser el artículo más antiguo en el campo de la IA, aunque ahora está perdido. Su artículo de 1950 fue seguido por tres transmisiones de radio sobre IA por Turing, las dos conferencias 'Intelligent Machinery, A Heretical Theory' y 'Can Digital Computers Think?' y la discusión de panel 'Can Automatic Calculating Machines be Said to Think?'{{sfn|Copeland|2004}}}}En el artículo, señaló que «pensar» es difícil de definir e ideó su famosa prueba de Turing: Si una máquina pudiera mantener una conversación (a través de un teletipo) que fuera indistinguible de una conversación con un ser humano, entonces era razonable decir que la máquina estaba «pensando».{{sfn|Newquist|1994|pp=92–98}}Esta versión simplificada del problema permitió a Turing argumentar de manera convincente que una «máquina pensante» era al menos plausible y el artículo respondió a todas las objeciones más comunes a la proposición.<ref>{{Harvtxt|Russell|Norvig|2003|p=948}} Afirman que Turing respondió a todas las principales objeciones a la IA que se han presentado en los años transcurridos desde que apareció el artículo.</ref>El Test de Turing fue la primera propuesta seria en la filosofía de la inteligencia artificial.


=== Década de 1980 ===


=== Redes neuronales artificiales ===
En [[1980]] la historia se repitió con el desafío japonés de la quinta generación, que dio lugar al auge de los sistemas expertos pero que no alcanzó muchos de sus objetivos, por lo que este campo sufrió una nueva interrupción en los años noventa.
[[Walter Pitts]] y [[Warren McCulloch]] analizaron [[Red neuronal artificial|redes de neuronas artificiales]] idealizadas y mostraron cómo podrían realizar funciones lógicas simples en 1943.<ref>{{Cite journal|title=Un cálculo lógico de las ideas inmanentes a la actividad nerviosa|last1=McCulloch|first1=Warren S.|last2=Pitts|first2=Walter|date=1943-12-01|journal=Bulletin of Mathematical Biophysics|volume=5|issue=4|pages=115–133|language=en|issn=1522-9602|doi=10.1007/BF02478259}}</ref><ref>{{Cite journal|title=La primera teoría computacional de la mente y el cerebro: una mirada cercana al "cálculo lógico de ideas inmanentes en la actividad nerviosa" de Mcculloch y Pitts|date=2004-08-01|journal=Synthese|volume=141|issue=2|pages=175–215|language=en|issn=1573-0964|doi=10.1023/B:SYNT.0000043018.52445.3e|last=Piccinini|first=Gualtiero|s2cid=10442035}}</ref>Fueron los primeros en describir lo que los investigadores posteriores llamarían una red neuronal.<ref name=":03">{{Harvnb|McCorduck|2004|pp=51–57, 80–107}}, {{Harvnb|Crevier|1993|pp=27–32}}, {{Harvnb|Russell|Norvig|2003|pp=15, 940}}, {{Harvnb|Moravec|1988|p=3}}, {{Harvnb|Cordeschi|2002|loc=Chap. 5}}.</ref>El artículo fue influenciado por el artículo de Turing «''Sobre números computables''» de 1936 utilizando neuronas [[Álgebra de Boole|booleanas]] de dos estados similares, pero fue el primero en aplicarlo a la función neuronal.{{sfn|Copeland|2004}}Uno de los estudiantes inspirados por Pitts y McCulloch fue [[Marvin Minsky]], que en ese momento era un estudiante de posgrado de 24 años. En 1951, Minsky y [[Dean Edmonds]] construyeron la primera máquina de red neuronal, la [[SNARC (red neuronal)|SNARC]].


=== Robots cibernéticos ===
En [[1987]] [[Martin Fischles]] y [[Oscar Firschein]] describieron los atributos de un agente inteligente. Al intentar describir con un mayor ámbito (no solo la comunicación) los atributos de un agente inteligente, la IA se ha expandido a muchas áreas que han creado ramas de investigación enormes y diferenciadas. Dichos atributos del agente inteligente son:
En la década de 1950, se construyeron [[Robot|robots]] experimentales como las tortugas de W. Gray Walter y la ''Bestia de Johns Hopkins''. Estas máquinas no utilizaban computadoras, [[electrónica digital]] ni razonamiento simbólico; estaban controlados completamente por circuitos [[Conjunción lógica|analógicos]].
Tanto que él en el año 2024 Un perro robot basado en inteligencia artificial: desde una compañía en casa hasta una ayuda profesional
Presentación de un perro robot activado mediante la plataforma de informática de borde de NVIDIA Jetson Orin.


=== Inteligencia artificial en juegos ===
# Tiene actitudes mentales tales como creencias e intenciones.
{{Artículo principal|Inteligencia artificial (videojuegos)}}En 1951, utilizando la máquina [[Ferranti Mark I|Ferranti Mark 1]] de la [[Universidad de Mánchester]], [[Christopher Strachey]] escribió un programa de [[damas]] y Dietrich Prinz uno de [[ajedrez]].<ref>{{Cita web|url=https://www.alanturing.net/turing_archive/pages/Reference%20Articles/BriefHistofComp.html|título=Una breve historia de la informática|fechaacceso=2024-08-17|sitioweb=www.alanturing.net}}</ref>El programa de damas de Arthur Samuel, tema de su artículo de 1959 «Algunos estudios sobre aprendizaje automático utilizando el juego de damas», finalmente alcanzó la habilidad suficiente para desafiar a un experto.<ref>Schaeffer, Jonathan. ''One Jump Ahead:: Challenging Human Supremacy in Checkers'', 1997, 2009, Springer, {{ISBN|978-0-387-76575-4}}. Chapter 6.</ref>
# Tiene la capacidad de obtener conocimiento, es decir, aprender.
# Puede resolver problemas, incluso descomponiendo problemas complejos en otros más simples.
# Capaz de realizar operaciones más complejas.
# Entiende. Posee la capacidad de dar sentido, si es posible, a ideas ambiguas o contradictorias.
# Planifica, predice consecuencias, evalúa alternativas (como en los juegos de ajedrez)
# Conoce los límites de sus propias habilidades y conocimientos.
# Puede distinguir a pesar de la similitud de las situaciones.
# Puede ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando analogías.
# Puede generalizar.
# Puede percibir y modelar el mundo exterior.
# Puede entender y utilizar el lenguaje y sus símbolos.


=== El razonamiento simbólico y la teoría de la lógica ===
Podemos entonces decir que la IA posee características humanas tales como el aprendizaje, la adaptación, el razonamiento, la autocorrección, el mejoramiento implícito, y la percepción modular del mundo. Así, podemos hablar ya no solo de un objetivo, sino de muchos, dependiendo del punto de vista o utilidad que pueda encontrarse a la IA.
{{Artículo principal|Teoría (lógica)}}
[[Archivo:Herbert A. Simon and Allen Newell Chess Match.jpg|miniaturadeimagen|[[Herbert Alexander Simon|Herbert Simon]] (izquierda) en una partida de ajedrez contra [[Allen Newell]] en 1958]]
Cuando el acceso a las computadoras digitales se hizo posible a mediados de los cincuenta, algunos científicos reconocieron instintivamente que una máquina que podía manipular números también podía manipular símbolos, y que la manipulación de símbolos bien podría ser la esencia del pensamiento humano. Este fue un nuevo enfoque para crear máquinas pensantes.<ref name=":04">{{Harvnb|McCorduck|2004|pp=51–57, 80–107}}, {{Harvnb|Crevier|1993|pp=27–32}}, {{Harvnb|Russell|Norvig|2003|pp=15, 940}}, {{Harvnb|Moravec|1988|p=3}}, {{Harvnb|Cordeschi|2002|loc=Chap. 5}}.</ref>


En 1955, [[Allen Newell]] y el futuro [[Premio Nobel]] [[Herbert Alexander Simon|Herbert A. Simon]] crearon el «''Logic Theorist''», con la ayuda de J. C. Shaw. El programa eventualmente demostraría 38 de los primeros 52 teoremas en ''[[Principia Mathematica|Principia Mathematica]]'' de Russell y Whitehead, y encontraría pruebas nuevas y más elegantes para algunos.<ref name=":05">{{Harvnb|McCorduck|2004|pp=51–57, 80–107}}, {{Harvnb|Crevier|1993|pp=27–32}}, {{Harvnb|Russell|Norvig|2003|pp=15, 940}}, {{Harvnb|Moravec|1988|p=3}}, {{Harvnb|Cordeschi|2002|loc=Chap. 5}}.</ref>Simon dijo que habían «resuelto el venerable problema mente/cuerpo, explicando cómo un sistema compuesto de materia puede tener las propiedades de la mente».<ref>Quoted in {{Harvnb|Crevier|1993|p=46}} and {{Harvnb|Russell|Norvig|2003|p=17}}</ref>Esta fue una de las primeras declaraciones de la posición filosófica que [[John Searle]] más tarde llamaría «[[Inteligencia artificial general|IA fuerte]]»: que las máquinas pueden contener mentes tal como lo hacen los cuerpos humanos.<ref>{{Harvnb|Russell|Norvig|2003|pp=947,952}}</ref>
=== Década de 1990 ===


=== Revolución cognitiva ===
En los 90 surgen los [[Agente inteligente (inteligencia artificial)|agentes inteligentes]] al paso de los años eso fue evolucionando.
En el otoño de 1956, Newell y Simon también presentaron el ''Logic Theorist'' en una reunión del Grupo de Interés Especial en Teoría de la Información en el [[Instituto de Tecnología de Massachusetts|Instituto Tecnológico de Massachusetts]] (MIT). En la misma reunión, [[Noam Chomsky]] discutió su gramática generativa, y George Miller describió su artículo histórico «''El número mágico siete, más o menos dos''». Miller escribió: «Salí del simposio con la convicción, más intuitiva que racional, de que la psicología experimental, la lingüística teórica y la simulación por computadora de los procesos cognitivos eran todas piezas de un todo más grande».<ref>{{Cite journal|url=https://www.cs.princeton.edu/~rit/geo/Miller.pdf|title=La revolución cognitiva: una perspectiva histórica|date=2003|journal=Trends in Cognitive Sciences|volume=7|issue=3|pages=141–144|doi=10.1016/s1364-6613(03)00029-9|pmid=12639696|last=Miller|first=George}}</ref>


Esta reunión marcó el inicio de la «revolución cognitiva», un cambio de paradigma interdisciplinario en psicología, filosofía, [[ciencias de la computación]] y [[neurociencia]]. Inspiró la creación de los subcampos de inteligencia artificial simbólica, [[lingüística generativa]], [[ciencia cognitiva]], [[psicología cognitiva]], [[neurociencia cognitiva]] y las escuelas filosóficas del [[Teoría computacional de la mente|computacionalismo]] y el [[funcionalismo]]. Todos estos campos utilizaron herramientas relacionadas para modelar la mente, y los resultados descubiertos en uno de ellos eran relevantes para los demás.
=== Década de 2000 ===


El enfoque cognitivo permitió a los investigadores considerar «objetos mentales» como pensamientos, planes, metas, hechos o recuerdos, a menudo analizados utilizando símbolos de alto nivel en redes funcionales. Estos objetos habían sido prohibidos como «inobservables» por paradigmas anteriores como el [[conductismo]]. Los objetos mentales simbólicos se convertirían en el principal foco de investigación y financiación de la IA durante las siguientes décadas.
El programa Artificial Linguistic Internet Computer Entity (A.L.I.C.E.) ganó el premio Loebner al Chatbot más humano en 2000, 2001 y 2004, y en 2007 el programa Ultra Hal Assistant ganó el premio.


=== Década de 2010 ===
== Primeros éxitos (1956-1974) ==
Los programas desarrollados en los años posteriores al [[Taller de Dartmouth]] fueron, para la mayoría de la gente, simplemente «asombrosos»:<ref>Russell y Norvig escribe "era sorprendente cada vez que una computadora hacía algo remotamente inteligente". {{Harvnb|Russell|Norvig|2003|p=18}}</ref>Las computadoras resolvían problemas planteados de álgebra, demostraban teoremas de geometría y aprendían a hablar inglés. Pocos en aquel momento habrían creído que un comportamiento tan «inteligente» por parte de las máquinas fuera posible.<ref name=":1">{{Harvnb|Crevier|1993|pp=52–107}}, {{Harvnb|Moravec|1988|p=9}} and {{Harvnb|Russell|Norvig|2003|pp=18−21}}</ref>Los investigadores expresaron un intenso optimismo en privado y en la prensa, prediciendo que se construiría una máquina totalmente inteligente en menos de 20 años.<ref name=":06">{{Harvnb|McCorduck|2004|pp=51–57, 80–107}}, {{Harvnb|Crevier|1993|pp=27–32}}, {{Harvnb|Russell|Norvig|2003|pp=15, 940}}, {{Harvnb|Moravec|1988|p=3}}, {{Harvnb|Cordeschi|2002|loc=Chap. 5}}.</ref>Agencias gubernamentales como la [[Agencia de Proyectos de Investigación Avanzados de Defensa|Agencia de Proyectos de Investigación Avanzada de Defensa]] (DARPA, entonces conocida como «ARPA») invirtieron dinero en este campo. A finales de los años cincuenta y principios de los sesenta se crearon [[Laboratorio|laboratorios]] de inteligencia artificial en varias universidades británicas y estadounidenses.{{sfn|Copeland|2004}}


=== Enfoques ===
Muchos de los investigadores sobre IA sostienen que «la inteligencia es un programa capaz de ser ejecutado independientemente de la máquina que lo ejecute, computador o cerebro»te ganó el premio Loebner. Algunos programas de inteligencia artificial gratuitos son Dr. Abuse, Alice, Paula SG, Virtual woman millenium.
Hubo muchos programas exitosos y nuevas direcciones a finales de los años cincuenta y sesenta.


==== Razonamiento como búsqueda ====
'''2011:''' un ordenador de IBM ganó el concurso de preguntas y respuestas 'Jeopardy!'. El ordenador de IBM [[Watson (inteligencia artificial)|Watson]] salió victorioso de su duelo contra el cerebro humano. La máquina ganó el concurso de preguntas y respuestas Jeopardy!, que emite la cadena de televisión estadounidense ABC, al imponerse a los dos mejores concursantes de la historia del programa. Watson les venció en la tercera ronda, contestando preguntas que le obligaban a pensar como una persona.
Muchos de los primeros programas de IA utilizaban el mismo [[algoritmo]] básico. Para alcanzar algún objetivo (como ganar un juego o demostrar un teorema), procedían paso a paso hacia él (haciendo un movimiento o una deducción) como si estuvieran buscando en un [[laberinto]], retrocediendo cada vez que llegaban a un callejón sin salida.  


La principal dificultad era que, para muchos problemas, el número de posibles caminos a través del «laberinto» era astronómico (una situación conocida como «explosión combinatoria»). Los investigadores reducían el espacio de búsqueda utilizando [[Heurística|heurísticas]] que eliminaban caminos que parecían poco probables de llevar a una solución.<ref>Heuristic: {{Harvnb|McCorduck|2004|p=246}}, {{Harvnb|Russell|Norvig|2003|pp=21–22}}</ref>
'''2014:''' un ordenador ha logrado superar con éxito el test de Turing, haciendo creer a un interrogador que es una persona quien responde sus preguntas en un certamen organizado en Londres por la Universidad de Reading (Reino Unido). El ordenador, con el programa Eugene desarrollado en San Petersburgo (Rusia), se hizo pasar por un chico de 13 años, y los responsables de la competición considerarón que es un “hito histórico de la inteligencia artificial”.


Newell y Simon intentaron capturar una versión general de este algoritmo en un programa llamado «''[[General Problem Solver|General Problem Solver]]''».<ref>GPS: {{Harvnb|McCorduck|2004|pp=245–250}}, {{Harvnb|Crevier|1993|p=GPS?}}, {{Harvnb|Russell|Norvig|2003|p=GPS?}}</ref>Otros programas de 'búsqueda' pudieron lograr tareas impresionantes como resolver problemas de geometría y álgebra, como el ''Geometry Theorem Prover'' (1958) de Herbert Gelernter y el ''Symbolic Automatic Integrator'' (SAINT), escrito por James Slagle, estudiante de Minsky, en 1961.<ref name=":12">{{Harvnb|Crevier|1993|pp=52–107}}, {{Harvnb|Moravec|1988|p=9}} and {{Harvnb|Russell|Norvig|2003|pp=18−21}}</ref>Otros programas buscaban metas y submetas para planificar acciones, como el sistema [[STRIPS]] desarrollado en [[Stanford Robert Ovshinsky|Stanford]] para controlar el comportamiento del robot Shakey.<ref name=":07">{{Harvnb|McCorduck|2004|pp=51–57, 80–107}}, {{Harvnb|Crevier|1993|pp=27–32}}, {{Harvnb|Russell|Norvig|2003|pp=15, 940}}, {{Harvnb|Moravec|1988|p=3}}, {{Harvnb|Cordeschi|2002|loc=Chap. 5}}.</ref>
'''2016:''' un ordenador de Google venció al campeón mundial del juego milenario “[[Go]]”. Un programa informático desarrollado por la compañía británica Google DeepMind consiguió vencer, por primera vez, a un campeón profesional del milenario juego de origen oriental Go. El reto era enorme para una máquina, ya que la prueba de estrategia encierra una gran complejidad.

==== Lenguaje natural ====
[[Archivo:Semantic_Net.svg|miniaturadeimagen|Ejemplo de [[red semántica]]]]
Un objetivo importante de la investigación de la IA es permitir que las computadoras se comuniquen en [[Lengua natural|lenguajes naturales]] como el inglés. Uno de los primeros éxitos fue el programa ''STUDENT'' de Daniel Bobrow, que podía resolver problemas planteados de álgebra de la escuela secundaria.<ref name=":08">{{Harvnb|McCorduck|2004|pp=51–57, 80–107}}, {{Harvnb|Crevier|1993|pp=27–32}}, {{Harvnb|Russell|Norvig|2003|pp=15, 940}}, {{Harvnb|Moravec|1988|p=3}}, {{Harvnb|Cordeschi|2002|loc=Chap. 5}}.</ref>

Una [[red semántica]] representa conceptos (por ejemplo, «casa», «puerta») como [[Nodo|nodos]], y relaciones entre conceptos como vínculos entre los nodos. El primer programa de IA que utilizó una red semántica fue escrito por Ross Quillian,<ref name=":2">{{Harvnb|Crevier|1993|pp=79–83}}</ref>y la versión más exitosa (y controvertida) fue la teoría de la dependencia conceptual de Roger Schank.<ref name=":2" />

El programa informático [[ELIZA]] fue el primer [[Bot conversacional|chatbot]] que podía llevar a cabo conversaciones tan realistas que los usuarios ocasionalmente eran engañados al pensar que estaban comunicándose con un ser humano y no con un programa de computadora. Pero en realidad, ELIZA simplemente daba una respuesta enlatada o repetía lo que se le decía, reformulando su respuesta con algunas reglas gramaticales. <ref name=":3">{{Harvnb|McCorduck|2004|pp=291–296}}, {{Harvnb|Crevier|1993|pp=134–139}}</ref>

==== Micromundos ====
A finales de los años 60, [[Marvin Minsky]] y [[Seymour Papert|Seymour Papert,]] del Laboratorio de IA del [[Instituto de Tecnología de Massachusetts|MIT]], propusieron que la investigación en IA debería centrarse en situaciones artificialmente simples conocidas como micromundos. Señalaron que en ciencias exitosas como la [[física]], los principios básicos a menudo se entendían mejor utilizando modelos simplificados como planos sin fricción o cuerpos perfectamente rígidos. Gran parte de la investigación se centró en un «mundo de bloques», que consiste en bloques de colores de diversas formas y tamaños dispuestos sobre una superficie plana.<ref name=":09">{{Harvnb|McCorduck|2004|pp=51–57, 80–107}}, {{Harvnb|Crevier|1993|pp=27–32}}, {{Harvnb|Russell|Norvig|2003|pp=15, 940}}, {{Harvnb|Moravec|1988|p=3}}, {{Harvnb|Cordeschi|2002|loc=Chap. 5}}.</ref>

Este paradigma condujo a un trabajo innovador en [[Visión artificial|visión por computadora]] por parte de [[Gerald Sussman]], Adolfo Guzmán, David Waltz (quien inventó la «propagación de restricciones») y, especialmente, Patrick Winston. Al mismo tiempo, Minsky y Papert construyeron un [[brazo robótico]] que podía apilar bloques, dando vida al mundo de los bloques. El programa ''[[SHRDLU]]'' de Terry Winograd podía comunicarse en oraciones comunes en inglés sobre el micromundo, planificar operaciones y ejecutarlas.<ref name=":32">{{Harvnb|McCorduck|2004|pp=291–296}}, {{Harvnb|Crevier|1993|pp=134–139}}</ref>

=== Optimismo ===
La primera generación de investigadores de IA hizo estas predicciones sobre su trabajo:

* '''1958:''' H. A. Simon y Allen Newell: «dentro de diez años una computadora digital será el campeón mundial de ajedrez» y «dentro de diez años una computadora digital descubrirá y demostrará un nuevo e importante teorema matemático».<ref>{{Harvnb|Simon|Newell|1958|pp=7−8}} quoted in {{Harvnb|Crevier|1993|p=108}}. See also {{Harvnb|Russell|Norvig|2003|p=21}}</ref>
* '''1965:''' H. A. Simon: «las máquinas serán capaces, dentro de veinte años, de realizar cualquier trabajo que el hombre pueda realizar».<ref>{{Harvnb|Simon|1965|p=96}} quoted in {{Harvnb|Crevier|1993|p=109}}</ref>
* '''1967''': Marvin Minsky: «Dentro de una generación... el problema de crear 'inteligencia artificial' estará sustancialmente resuelto».<ref>{{Harvnb|Minsky|1967|p=2}} quoted in {{Harvnb|Crevier|1993|p=109}}</ref>
* '''1970''': Marvin Minsky (en la revista [[Life (revista)|Life]]): «Dentro de tres a ocho años tendremos una máquina con la [[Inteligencia artificial general|inteligencia general]] de un ser humano medio».<ref>Minsky strongly believes he was misquoted. See {{Harvnb|McCorduck|2004|pp=272–274}}, {{Harvnb|Crevier|1993|p=96}} and {{Harvnb|Darrach|1970}}.</ref>

=== Financiación ===
En junio de 1963, el MIT recibió una subvención de $2.2 millones de la recién creada Agencia de Proyectos de Investigación Avanzada (ARPA, más tarde conocida como DARPA). El dinero se utilizó para financiar el proyecto MAC, que absorbió el "Grupo de IA" fundado por Minsky y McCarthy cinco años antes. DARPA continuó proporcionando $3 millones cada año hasta la década de 1970.<ref>{{Harvnb|Crevier|1993|pp=64–65}}</ref>

== Desafíos y preocupaciones actuales en la inteligencia artificial ==
La '''inteligencia artificial''' es una herramienta muy poderosa que puede traer muchos beneficios a la sociedad, como la automatización de tareas repetitivas, el diagnóstico médico preciso, la personalización de la publicidad y la reducción del tiempo de espera en las llamadas de atención al cliente. Sin embargo, también puede presentar ''desafíos y preocupaciones importantes''.

Uno de los '''principales desafíos de la inteligencia artificial''' es la falta de transparencia en su funcionamiento. En muchos casos, los algoritmos de aprendizaje automático son considerados como cajas negras, lo que significa que los usuarios no pueden comprender cómo se toman las decisiones. Esto puede ser un problema en aplicaciones críticas, como la toma de decisiones médicas y financieras.

Otro desafío importante es la privacidad y seguridad de los datos. La inteligencia artificial se basa en grandes conjuntos de datos para entrenar modelos de aprendizaje automático. Si estos datos son robados o utilizados de manera inapropiada, pueden tener graves consecuencias para la privacidad y la seguridad de las personas.

Además, la inteligencia artificial también puede exacerbar la desigualdad social y económica. Por ejemplo, los sistemas de inteligencia artificial que se basan en datos históricos pueden perpetuar sesgos y discriminación en los procesos de toma de decisiones. Además, los avances en la automatización de trabajos pueden llevar a la eliminación de puestos de trabajo, lo que puede agravar la brecha económica.

Otra preocupación importante es la responsabilidad y ética de los sistemas de inteligencia artificial. Quienes diseñan, implementan y utilizan estos sistemas tienen la responsabilidad de garantizar que se utilicen de manera ética y responsable. Además, se deben establecer regulaciones y estándares éticos para la inteligencia artificial para garantizar que no se utilice de manera perjudicial para las personas y la sociedad en general.

'''En resumen''', la inteligencia artificial<ref> {{Cita web|url=https://cronicaglobal.elespanol.com/creacion/vida-tecky/quienes-mayores-expertos-espanoles-inteligencia-artificial-nprs_502077_102.html|título=Andres Vegas|fecha=26 de octubre de 2020|sitioweb=Cronica Global|idioma=es}}</ref> presenta importantes desafíos y preocupaciones que deben abordarse de manera responsable y ética. Es necesario seguir investigando y desarrollando regulaciones y estándares éticos para garantizar que la inteligencia artificial se utilice de manera responsable y para el beneficio de la sociedad en general.


== Véase también ==
== Véase también ==
Línea 90: Línea 139:
* [[Cerebro artificial]]
* [[Cerebro artificial]]
* [[Premio Loebner]]
* [[Premio Loebner]]
* [[Riesgo existencial de la inteligencia artificial]]


== Enlaces externos ==
== Enlaces externos ==

Revisión actual - 15:51 14 dic 2024

La historia de la inteligencia artificial (IA) comenzó en la antigüedad, con mitos, historias y rumores sobre seres artificiales dotados de inteligencia o conciencia por parte de maestros artesanos. Las semillas de la IA moderna fueron plantadas por filósofos que intentaron describir el proceso del pensamiento humano como la manipulación mecánica de símbolos. Este trabajo culminó con la invención de la computadora digital programable en la década de 1940, una máquina basada en la esencia abstracta del razonamiento matemático. Este dispositivo y las ideas detrás de él inspiraron a un puñado de científicos a comenzar a discutir seriamente la posibilidad de construir un cerebro electrónico.

El campo de la investigación de la IA se fundó en un taller celebrado en el campus del Dartmouth College, en Estados Unidos, durante el verano de 1956.[1]​Aquellos que asistieron se convertirían en los líderes de la investigación en IA durante décadas. Muchos de ellos predijeron que una máquina tan inteligente como un ser humano existiría en no más de una generación, y recibieron millones de dólares para hacer realidad esta visión.[2]

Al final, resultó evidente que los investigadores habían subestimado enormemente la dificultad del proyecto. En 1974, en respuesta a las críticas de James Lighthill y a la presión constante del Congreso de Estados Unidos, los gobiernos de Estados Unidos y Gran Bretaña dejaron de financiar investigaciones no dirigidas sobre inteligencia artificial. Siete años más tarde, una iniciativa visionaria del gobierno japonés inspiró a los gobiernos y a la industria a proporcionar a la IA miles de millones de dólares, pero a finales de la década de 1980 los inversores se desilusionaron y volvieron a retirar la financiación. Los años difíciles que siguieron se conocerían más tarde como el «invierno de la IA» (AI Winter en inglés). La IA fue criticada en la prensa y evitada por la industria hasta mediados de la década de 2000, pero la investigación y la financiación continuaron creciendo bajo otros nombres.

En los años 1990 y principios de 2000, el aprendizaje automático se aplicó a muchos problemas en la academia y la industria. El éxito se debió a la disponibilidad de hardware informático potente, la recopilación de conjuntos de datos inmensos y la aplicación de sólidos métodos matemáticos. En 2012, el aprendizaje profundo demostró ser una tecnología revolucionaria, eclipsando todos los demás métodos. La arquitectura del transformador debutó en 2017 y se utilizó para producir aplicaciones de IA generativa. La inversión en IA se disparó en la década de 2020.

Precursores

[editar]

Precursores míticos, ficticios y especulativos

[editar]

Mitos y leyendas

[editar]

En la mitología griega, Talos era un gigante construido en bronce que actuaba como guardián de la isla de Creta. Lanzaba piedras a los barcos de los invasores y completaba 3 circuitos alrededor del perímetro de la isla diariamente.[3]​Según la Bibliotheke de Pseudo-Apollodoro, Hefesto forjó a Talos con la ayuda de un cíclope y presentó el autómata como regalo a Minos.[4]​ En la Argonautica, Jasón y los Argonautas lo derrotaron mediante un único tapón cerca de su pie que, una vez retirado, permitía que el vital ichor fluyera fuera de su cuerpo, dejándolo inanimado.[5]

Pigmalión fue un legendario rey y escultor de la mitología griega, famoso por su representación en las Metamorfosis de Ovidio. En el décimo libro del poema narrativo de Ovidio, Pigmalión se disgusta con las mujeres al presenciar la forma en que las Propoetides se prostituyen.[6]​ A pesar de esto, hace ofrendas en el templo de Venus pidiendo a la diosa que le traiga una mujer exactamente como una estatua que él esculpió.

Leyendas medievales de seres artificiales

[editar]
Representación de un homúnculo del Fausto de Goethe.

En De la Naturaleza de las Cosas, escrito por el alquimista suizo Paracelso, describe un procedimiento que afirma puede fabricar un «hombre artificial». Al colocar el «esperma de un hombre» en estiércol de caballo y alimentarlo con el «Arcano de la sangre humana» después de 40 días, la mezcla se convertirá en un infante vivo.[7]

El relato escrito más antiguo sobre la fabricación de golems se encuentra en los escritos de Eleazar ben Judá de Worms a principios del siglo XIII.[8]​Durante la Edad Media, se creía que la animación de un Golem se podía lograr insertando un trozo de papel con cualquiera de los nombres de Dios en la boca de la figura de arcilla.[9]​A diferencia de los autómatas legendarios como Brazen Heads,[10]​ un Golem no podía hablar.[11]

Takwin, la creación artificial de vida, era un tema frecuente en los manuscritos alquímicos ismaelitas, especialmente los atribuidos a Jabir ibn Hayyan. Los alquimistas islámicos intentaron crear una amplia gama de formas de vida a través de su trabajo, desde plantas hasta animales.[12]

En Fausto: La segunda parte de la tragedia de Johann Wolfgang von Goethe, un homúnculo fabricado alquímicamente, destinado a vivir eternamente en el frasco en el que fue creado, se esfuerza por nacer en un cuerpo humano completo. Sin embargo, al inicio de esta transformación, el frasco se rompe y el homúnculo muere.[13]

Ficción moderna

[editar]

Para el siglo XIX, las ideas sobre hombres artificiales y máquinas pensantes se desarrollaron en la ficción, como en «Frankenstein» de Mary Shelley o «R.U.R.» (Rossum's Universal Robots) de Karel Čapek,[14]​ y en la especulación, como en «Darwin among the Machines» de Samuel Butler,[15]​ y en casos del mundo real, incluyendo «Maelzel's Chess Player» de Edgar Allan Poe. La IA es un tema común en la ciencia ficción hasta el presente.[16]

Razonamiento formal

[editar]

La inteligencia artificial se basa en la suposición de que el proceso del pensamiento humano puede ser mecanizado. El estudio del razonamiento mecánico o «formal» tiene una larga historia. Los filósofos chinos, indios y griegos desarrollaron todos métodos estructurados de deducción formal para el primer milenio antes de Cristo. Sus ideas fueron desarrolladas a lo largo de los siglos por filósofos como Aristóteles (quien dio un análisis formal del silogismo),[17]Euclides (cuyos elementos fueron un modelo de razonamiento formal), al-Juarismi (quien desarrolló el álgebra y dio su nombre a la palabra «algoritmo») y filósofos escolásticos europeos como Guillermo de Ockham y Duns Scoto.[18]

El filósofo español Ramon Llull (1232-1315) desarrolló varias máquinas lógicas dedicadas a la producción de conocimiento por medios lógicos;[19][20]​Llull describió sus máquinas como entidades mecánicas que podían combinar verdades básicas e innegables mediante operaciones lógicas simples, producidas por la máquina mediante significados mecánicos, de tal manera que produjeran todo el conocimiento posible.[21]​La obra de Llull tuvo una gran influencia en Gottfried Leibniz, quien reformuló sus ideas.[22]

Gottfried Leibniz, quien especuló que la razón humana podría reducirse a un cálculo mecánico.

En el siglo XVII, Leibniz, Thomas Hobbes y René Descartes exploraron la posibilidad de que todo pensamiento racional pudiera volverse tan sistemático como el álgebra o la geometría.[23]​Hobbes escribió en Leviatán: «Porque la razón... no es más que calcular, es decir, sumar y restar».[24]​Leibniz imaginó un lenguaje universal del razonamiento, la characteristica universalis, que reduciría la argumentación a cálculo, de modo que «no habría más necesidad de disputa entre dos filósofos que entre dos contables. Porque bastaría tomar sus lápices en la mano, bajar a sus pizarras y decirse el uno al otro (con un amigo como testigo, si quisieran): Vamos a calcular».[25]​Estos filósofos habían comenzado a articular la hipótesis del sistema de símbolos físicos que se convertiría en la fe rectora de la investigación de la IA.

El estudio de la lógica matemática proporcionó el avance esencial que hizo que la inteligencia artificial pareciera plausible. Las bases se habían sentado con obras como Las leyes del pensamiento de Boole y Begriffsschrift de Frege.[26]​Basándose en el sistema de Frege, Russell y Whitehead, presentaron un tratamiento formal de los fundamentos de las matemáticas en su obra maestra, los Principia Mathematica, en 1913. Inspirado por el éxito de Russell, David Hilbert desafió a los matemáticos de los años 20 y 30 a responder esta pregunta fundamental: «¿puede formalizarse todo el razonamiento matemático?».[18]​Su pregunta fue respondida por la prueba de incompletitud de Gödel,[27]​ la máquina de Turing[27]​ y el cálculo Lambda de Church.[29]

Su respuesta fue sorprendente en dos aspectos. Primero, demostraron que, de hecho, existían límites a lo que la lógica matemática podía lograr. Pero segundo (y más importante para la IA), su trabajo sugirió que, dentro de estos límites, cualquier forma de razonamiento matemático podía ser mecanizada. La tesis de Church-Turing implicaba que un dispositivo mecánico, manipulando símbolos tan simples como 0 y 1, podía imitar cualquier proceso concebible de deducción matemática.[27]​La idea clave fue la máquina de Turing, una construcción teórica simple que capturó la esencia de la manipulación de símbolos abstractos.[30]​Este invento inspiraría a un puñado de científicos a comenzar a discutir la posibilidad de máquinas pensantes.

Ciencias de la computación

[editar]

Las máquinas calculadoras fueron diseñadas o construidas en la antigüedad y a lo largo de la historia por muchas personas, entre ellas Gottfried Leibniz, Joseph Marie Jacquard, Charles Babbage, Percy Ludgate, Leonardo Torres Quevedo, Vannevar Bush, y otros. Ada Lovelace especuló que la máquina de Babbage era «una máquina pensante o... razonadora», pero advirtió que «es deseable protegerse contra la posibilidad de que surjan ideas exageradas en cuanto a los poderes de la maquina».[31][32]

Los primeros computadores modernos fueron las máquinas masivas de la Segunda Guerra Mundial (como la Z3 de Konrad Zuse, la Heath Robinson y la Colossus de Alan Turing, y la Berry en la Universidad de Pensilvania).[33]​ La ENIAC se basó en los fundamentos teóricos establecidos por Alan Turing y desarrollada por John von Neumann,[34]​ y demostró ser la más influyente.[33]

Nacimiento de la IA (1941-56)

[editar]

Las primeras investigaciones sobre máquinas pensantes se inspiraron en una confluencia de ideas que se volvieron prevalentes a finales de la década de 1930, 1940 y principios de la de 1950. Investigaciones recientes en neurología habían demostrado que el cerebro era una red eléctrica de neuronas que disparaban en pulsos todo o nada. La cibernética de Norbert Wiener describió el control y la estabilidad en las redes eléctricas. La teoría de la información de Claude Shannon describió las señales digitales (es decir, señales «todo o nada»). La teoría de la computación de Alan Turing demostró que cualquier forma de computación podía describirse digitalmente. La estrecha relación entre estas ideas sugirió que podría ser posible construir un «cerebro electrónico».

En las décadas de 1940 y 1950, un puñado de científicos de diversos campos (matemáticas, psicología, ingeniería, economía y ciencias políticas) exploraron varias direcciones de investigación que serían vitales para la investigación posterior de la IA.[35]​Alan Turing fue uno de los primeros en investigar seriamente la posibilidad teórica de la «inteligencia artificial». El campo de la «investigación en inteligencia artificial» se fundó como disciplina académica en 1956.[36][37]

Test de Turing

[editar]
Esquema del test o prueba de Turing

En 1950, Turing publicó un artículo histórico denominado «Computing Machinery and Intelligence», en el que especulaba sobre la posibilidad de crear máquinas que piensen.[38][39]​En el artículo, señaló que «pensar» es difícil de definir e ideó su famosa prueba de Turing: Si una máquina pudiera mantener una conversación (a través de un teletipo) que fuera indistinguible de una conversación con un ser humano, entonces era razonable decir que la máquina estaba «pensando».[40]​Esta versión simplificada del problema permitió a Turing argumentar de manera convincente que una «máquina pensante» era al menos plausible y el artículo respondió a todas las objeciones más comunes a la proposición.[41]​El Test de Turing fue la primera propuesta seria en la filosofía de la inteligencia artificial.


Redes neuronales artificiales

[editar]

Walter Pitts y Warren McCulloch analizaron redes de neuronas artificiales idealizadas y mostraron cómo podrían realizar funciones lógicas simples en 1943.[42][43]​Fueron los primeros en describir lo que los investigadores posteriores llamarían una red neuronal.[44]​El artículo fue influenciado por el artículo de Turing «Sobre números computables» de 1936 utilizando neuronas booleanas de dos estados similares, pero fue el primero en aplicarlo a la función neuronal.[36]​Uno de los estudiantes inspirados por Pitts y McCulloch fue Marvin Minsky, que en ese momento era un estudiante de posgrado de 24 años. En 1951, Minsky y Dean Edmonds construyeron la primera máquina de red neuronal, la SNARC.

Robots cibernéticos

[editar]

En la década de 1950, se construyeron robots experimentales como las tortugas de W. Gray Walter y la Bestia de Johns Hopkins. Estas máquinas no utilizaban computadoras, electrónica digital ni razonamiento simbólico; estaban controlados completamente por circuitos analógicos. Tanto que él en el año 2024 Un perro robot basado en inteligencia artificial: desde una compañía en casa hasta una ayuda profesional Presentación de un perro robot activado mediante la plataforma de informática de borde de NVIDIA Jetson Orin.

Inteligencia artificial en juegos

[editar]

En 1951, utilizando la máquina Ferranti Mark 1 de la Universidad de Mánchester, Christopher Strachey escribió un programa de damas y Dietrich Prinz uno de ajedrez.[45]​El programa de damas de Arthur Samuel, tema de su artículo de 1959 «Algunos estudios sobre aprendizaje automático utilizando el juego de damas», finalmente alcanzó la habilidad suficiente para desafiar a un experto.[46]

El razonamiento simbólico y la teoría de la lógica

[editar]
Herbert Simon (izquierda) en una partida de ajedrez contra Allen Newell en 1958

Cuando el acceso a las computadoras digitales se hizo posible a mediados de los cincuenta, algunos científicos reconocieron instintivamente que una máquina que podía manipular números también podía manipular símbolos, y que la manipulación de símbolos bien podría ser la esencia del pensamiento humano. Este fue un nuevo enfoque para crear máquinas pensantes.[47]

En 1955, Allen Newell y el futuro Premio Nobel Herbert A. Simon crearon el «Logic Theorist», con la ayuda de J. C. Shaw. El programa eventualmente demostraría 38 de los primeros 52 teoremas en Principia Mathematica de Russell y Whitehead, y encontraría pruebas nuevas y más elegantes para algunos.[48]​Simon dijo que habían «resuelto el venerable problema mente/cuerpo, explicando cómo un sistema compuesto de materia puede tener las propiedades de la mente».[49]​Esta fue una de las primeras declaraciones de la posición filosófica que John Searle más tarde llamaría «IA fuerte»: que las máquinas pueden contener mentes tal como lo hacen los cuerpos humanos.[50]

Revolución cognitiva

[editar]

En el otoño de 1956, Newell y Simon también presentaron el Logic Theorist en una reunión del Grupo de Interés Especial en Teoría de la Información en el Instituto Tecnológico de Massachusetts (MIT). En la misma reunión, Noam Chomsky discutió su gramática generativa, y George Miller describió su artículo histórico «El número mágico siete, más o menos dos». Miller escribió: «Salí del simposio con la convicción, más intuitiva que racional, de que la psicología experimental, la lingüística teórica y la simulación por computadora de los procesos cognitivos eran todas piezas de un todo más grande».[51]

Esta reunión marcó el inicio de la «revolución cognitiva», un cambio de paradigma interdisciplinario en psicología, filosofía, ciencias de la computación y neurociencia. Inspiró la creación de los subcampos de inteligencia artificial simbólica, lingüística generativa, ciencia cognitiva, psicología cognitiva, neurociencia cognitiva y las escuelas filosóficas del computacionalismo y el funcionalismo. Todos estos campos utilizaron herramientas relacionadas para modelar la mente, y los resultados descubiertos en uno de ellos eran relevantes para los demás.

El enfoque cognitivo permitió a los investigadores considerar «objetos mentales» como pensamientos, planes, metas, hechos o recuerdos, a menudo analizados utilizando símbolos de alto nivel en redes funcionales. Estos objetos habían sido prohibidos como «inobservables» por paradigmas anteriores como el conductismo. Los objetos mentales simbólicos se convertirían en el principal foco de investigación y financiación de la IA durante las siguientes décadas.

Primeros éxitos (1956-1974)

[editar]

Los programas desarrollados en los años posteriores al Taller de Dartmouth fueron, para la mayoría de la gente, simplemente «asombrosos»:[52]​Las computadoras resolvían problemas planteados de álgebra, demostraban teoremas de geometría y aprendían a hablar inglés. Pocos en aquel momento habrían creído que un comportamiento tan «inteligente» por parte de las máquinas fuera posible.[53]​Los investigadores expresaron un intenso optimismo en privado y en la prensa, prediciendo que se construiría una máquina totalmente inteligente en menos de 20 años.[54]​Agencias gubernamentales como la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA, entonces conocida como «ARPA») invirtieron dinero en este campo. A finales de los años cincuenta y principios de los sesenta se crearon laboratorios de inteligencia artificial en varias universidades británicas y estadounidenses.[36]

Enfoques

[editar]

Hubo muchos programas exitosos y nuevas direcciones a finales de los años cincuenta y sesenta.

Razonamiento como búsqueda

[editar]

Muchos de los primeros programas de IA utilizaban el mismo algoritmo básico. Para alcanzar algún objetivo (como ganar un juego o demostrar un teorema), procedían paso a paso hacia él (haciendo un movimiento o una deducción) como si estuvieran buscando en un laberinto, retrocediendo cada vez que llegaban a un callejón sin salida.  

La principal dificultad era que, para muchos problemas, el número de posibles caminos a través del «laberinto» era astronómico (una situación conocida como «explosión combinatoria»). Los investigadores reducían el espacio de búsqueda utilizando heurísticas que eliminaban caminos que parecían poco probables de llevar a una solución.[55]

Newell y Simon intentaron capturar una versión general de este algoritmo en un programa llamado «General Problem Solver».[56]​Otros programas de 'búsqueda' pudieron lograr tareas impresionantes como resolver problemas de geometría y álgebra, como el Geometry Theorem Prover (1958) de Herbert Gelernter y el Symbolic Automatic Integrator (SAINT), escrito por James Slagle, estudiante de Minsky, en 1961.[57]​Otros programas buscaban metas y submetas para planificar acciones, como el sistema STRIPS desarrollado en Stanford para controlar el comportamiento del robot Shakey.[58]

Lenguaje natural

[editar]
Ejemplo de red semántica

Un objetivo importante de la investigación de la IA es permitir que las computadoras se comuniquen en lenguajes naturales como el inglés. Uno de los primeros éxitos fue el programa STUDENT de Daniel Bobrow, que podía resolver problemas planteados de álgebra de la escuela secundaria.[59]

Una red semántica representa conceptos (por ejemplo, «casa», «puerta») como nodos, y relaciones entre conceptos como vínculos entre los nodos. El primer programa de IA que utilizó una red semántica fue escrito por Ross Quillian,[60]​y la versión más exitosa (y controvertida) fue la teoría de la dependencia conceptual de Roger Schank.[60]

El programa informático ELIZA fue el primer chatbot que podía llevar a cabo conversaciones tan realistas que los usuarios ocasionalmente eran engañados al pensar que estaban comunicándose con un ser humano y no con un programa de computadora. Pero en realidad, ELIZA simplemente daba una respuesta enlatada o repetía lo que se le decía, reformulando su respuesta con algunas reglas gramaticales. [61]

Micromundos

[editar]

A finales de los años 60, Marvin Minsky y Seymour Papert, del Laboratorio de IA del MIT, propusieron que la investigación en IA debería centrarse en situaciones artificialmente simples conocidas como micromundos. Señalaron que en ciencias exitosas como la física, los principios básicos a menudo se entendían mejor utilizando modelos simplificados como planos sin fricción o cuerpos perfectamente rígidos. Gran parte de la investigación se centró en un «mundo de bloques», que consiste en bloques de colores de diversas formas y tamaños dispuestos sobre una superficie plana.[62]

Este paradigma condujo a un trabajo innovador en visión por computadora por parte de Gerald Sussman, Adolfo Guzmán, David Waltz (quien inventó la «propagación de restricciones») y, especialmente, Patrick Winston. Al mismo tiempo, Minsky y Papert construyeron un brazo robótico que podía apilar bloques, dando vida al mundo de los bloques. El programa SHRDLU de Terry Winograd podía comunicarse en oraciones comunes en inglés sobre el micromundo, planificar operaciones y ejecutarlas.[63]

Optimismo

[editar]

La primera generación de investigadores de IA hizo estas predicciones sobre su trabajo:

  • 1958: H. A. Simon y Allen Newell: «dentro de diez años una computadora digital será el campeón mundial de ajedrez» y «dentro de diez años una computadora digital descubrirá y demostrará un nuevo e importante teorema matemático».[64]
  • 1965: H. A. Simon: «las máquinas serán capaces, dentro de veinte años, de realizar cualquier trabajo que el hombre pueda realizar».[65]
  • 1967: Marvin Minsky: «Dentro de una generación... el problema de crear 'inteligencia artificial' estará sustancialmente resuelto».[66]
  • 1970: Marvin Minsky (en la revista Life): «Dentro de tres a ocho años tendremos una máquina con la inteligencia general de un ser humano medio».[67]

Financiación

[editar]

En junio de 1963, el MIT recibió una subvención de $2.2 millones de la recién creada Agencia de Proyectos de Investigación Avanzada (ARPA, más tarde conocida como DARPA). El dinero se utilizó para financiar el proyecto MAC, que absorbió el "Grupo de IA" fundado por Minsky y McCarthy cinco años antes. DARPA continuó proporcionando $3 millones cada año hasta la década de 1970.[68]

Desafíos y preocupaciones actuales en la inteligencia artificial

[editar]

La inteligencia artificial es una herramienta muy poderosa que puede traer muchos beneficios a la sociedad, como la automatización de tareas repetitivas, el diagnóstico médico preciso, la personalización de la publicidad y la reducción del tiempo de espera en las llamadas de atención al cliente. Sin embargo, también puede presentar desafíos y preocupaciones importantes.

Uno de los principales desafíos de la inteligencia artificial es la falta de transparencia en su funcionamiento. En muchos casos, los algoritmos de aprendizaje automático son considerados como cajas negras, lo que significa que los usuarios no pueden comprender cómo se toman las decisiones. Esto puede ser un problema en aplicaciones críticas, como la toma de decisiones médicas y financieras.

Otro desafío importante es la privacidad y seguridad de los datos. La inteligencia artificial se basa en grandes conjuntos de datos para entrenar modelos de aprendizaje automático. Si estos datos son robados o utilizados de manera inapropiada, pueden tener graves consecuencias para la privacidad y la seguridad de las personas.

Además, la inteligencia artificial también puede exacerbar la desigualdad social y económica. Por ejemplo, los sistemas de inteligencia artificial que se basan en datos históricos pueden perpetuar sesgos y discriminación en los procesos de toma de decisiones. Además, los avances en la automatización de trabajos pueden llevar a la eliminación de puestos de trabajo, lo que puede agravar la brecha económica.

Otra preocupación importante es la responsabilidad y ética de los sistemas de inteligencia artificial. Quienes diseñan, implementan y utilizan estos sistemas tienen la responsabilidad de garantizar que se utilicen de manera ética y responsable. Además, se deben establecer regulaciones y estándares éticos para la inteligencia artificial para garantizar que no se utilice de manera perjudicial para las personas y la sociedad en general.

En resumen, la inteligencia artificial[69]​ presenta importantes desafíos y preocupaciones que deben abordarse de manera responsable y ética. Es necesario seguir investigando y desarrollando regulaciones y estándares éticos para garantizar que la inteligencia artificial se utilice de manera responsable y para el beneficio de la sociedad en general.

Véase también

[editar]

Enlaces externos

[editar]

Referencias

[editar]
  1. Kaplan y Haenlein, 2018.
  2. Newquist, 1994, pp. 143–156.
  3. Talos en el episodio 4 de Argonautica
  4. Bibliotheke 1.9.26
  5. Rhodios, Apollonios (2007). The Argonautika : Expanded Edition (en inglés). University of California Press. p. 355. ISBN 978-0-520-93439-9. OCLC 811491744. 
  6. Morford, Mark (2007). Classical mythology (en inglés). Oxford: Oxford University Press. p. 184. ISBN 978-0-19-085164-4. OCLC 1102437035. 
  7. Linden, Stanton J. (2003). The alchemy reader : from Hermes Trismegistus to Isaac Newton. New York: Cambridge University Press. pp. Ch. 18. ISBN 0-521-79234-7. OCLC 51210362. 
  8. Kressel, Matthew (1 de octubre de 2015). «36 Days of Judaic Myth: Day 24, The Golem of Prague». Matthew Kressel (en inglés). Consultado el 15 de marzo de 2020. 
  9. «GOLEM». www.jewishencyclopedia.com. Consultado el 15 de marzo de 2020. 
  10. Newquist, 1994, p. 38.
  11. «Sanhedrin 65b». www.sefaria.org. Consultado el 15 de marzo de 2020. 
  12. O'Connor, Kathleen Malone (1994). «The alchemical creation of life (takwin) and other concepts of Genesis in medieval Islam». Dissertations Available from ProQuest: 1-435. 
  13. Goethe, Johann Wolfgang von (1890). Faust; a tragedy. Translated, in the original metres ... by Bayard Taylor. Authorised ed., published by special arrangement with Mrs. Bayard Taylor. With a biographical introd. London Ward, Lock. 
  14. McCorduck, 2004, pp. 17–25.
  15. Butler, 1863.
  16. Cave, Stephen; Dihal, Kanta (2019). «Esperanzas y temores por las máquinas inteligentes en la ficción y la realidad». Nature Machine Intelligence (en inglés) 1 (2): 74-78. ISSN 2522-5839. S2CID 150700981. doi:10.1038/s42256-019-0020-9. 
  17. Russell y Norvig, 2021, pp. 6 & 7.
  18. a b Berlinski, 2000.
  19. Carreras y Artau, 1939.
  20. Russell y Norvig, 2021, p. 6.
  21. Bonner, 2007.
  22. Bonner, 1985, pp. 57–71.
  23. 17th century mechanism and AI: McCorduck, 2004, pp. 37–46; Russell y Norvig, 2021, p. 6; Buchanan, 2005, p. 53
  24. Hobbes and AI: Russell y Norvig, 2021, p. 6; McCorduck, 2004, p. 42; Hobbes, 1651, chapter 5
  25. Leibniz and AI: McCorduck, 2004, p. 41; Russell y Norvig, 2021, p. 6}; Berlinski, 2000, p. 12; Buchanan, 2005, p. 53
  26. Russell y Norvig, 2021, p. 8.
  27. a b c Russell y Norvig, 2021, p. 9.
  28. Crevier, 1993, pp. 190 196,61.
  29. El cálculo lambda fue especialmente importante para la IA, ya que fue una inspiración para Lisp (el lenguaje de programación más importante utilizado en la IA del siglo XX). [28]
  30. The Turing machine: Newquist, 1994, p. 56; McCorduck, 2004, pp. 63–64; Crevier, 1993, pp. 22–24; Russell y Norvig, 2021, p. 9 and see Turing, 1936–1937
  31. Quoted in Russell y Norvig (2021, p. 15)
  32. Menabrea y Lovelace, 1843.
  33. a b Russell y Norvig, 2021, p. 14.
  34. McCorduck, 2004, pp. 76–80.
  35. McCorduck, 2004, pp. 51–57, 80–107, Crevier, 1993, pp. 27–32, Russell y Norvig, 2003, pp. 15, 940, Moravec, 1988, p. 3, Cordeschi, 2002, Chap. 5.
  36. a b c d Copeland, 2004.
  37. McCorduck, 2004, pp. 111–136, Crevier, 1993, pp. 49–51, Russell y Norvig, 2003, p. 17, Newquist, 1994, pp. 91–112 and Kaplan, Andreas. «Artificial Intelligence, Business and Civilization - Our Fate Made in Machines» (en inglés). Consultado el 11 de marzo de 2022. 
  38. McCorduck, 2004, pp. 51–57, 80–107, Crevier, 1993, pp. 27–32, Russell y Norvig, 2003, pp. 15, 940, Moravec, 1988, p. 3, Cordeschi, 2002, Chap. 5.
  39. Alan Turing estaba pensando en la inteligencia de las máquinas al menos desde 1941, cuando circuló un artículo sobre inteligencia de las máquinas que podría ser el artículo más antiguo en el campo de la IA, aunque ahora está perdido. Su artículo de 1950 fue seguido por tres transmisiones de radio sobre IA por Turing, las dos conferencias 'Intelligent Machinery, A Heretical Theory' y 'Can Digital Computers Think?' y la discusión de panel 'Can Automatic Calculating Machines be Said to Think?'[36]
  40. Newquist, 1994, pp. 92–98.
  41. Russell y Norvig (2003, p. 948) Afirman que Turing respondió a todas las principales objeciones a la IA que se han presentado en los años transcurridos desde que apareció el artículo.
  42. McCulloch, Warren S.; Pitts, Walter (1 de diciembre de 1943). «Un cálculo lógico de las ideas inmanentes a la actividad nerviosa». Bulletin of Mathematical Biophysics (en inglés) 5 (4): 115-133. ISSN 1522-9602. doi:10.1007/BF02478259. 
  43. Piccinini, Gualtiero (1 de agosto de 2004). «La primera teoría computacional de la mente y el cerebro: una mirada cercana al "cálculo lógico de ideas inmanentes en la actividad nerviosa" de Mcculloch y Pitts». Synthese (en inglés) 141 (2): 175-215. ISSN 1573-0964. S2CID 10442035. doi:10.1023/B:SYNT.0000043018.52445.3e. 
  44. McCorduck, 2004, pp. 51–57, 80–107, Crevier, 1993, pp. 27–32, Russell y Norvig, 2003, pp. 15, 940, Moravec, 1988, p. 3, Cordeschi, 2002, Chap. 5.
  45. «Una breve historia de la informática». www.alanturing.net. Consultado el 17 de agosto de 2024. 
  46. Schaeffer, Jonathan. One Jump Ahead:: Challenging Human Supremacy in Checkers, 1997, 2009, Springer, ISBN 978-0-387-76575-4. Chapter 6.
  47. McCorduck, 2004, pp. 51–57, 80–107, Crevier, 1993, pp. 27–32, Russell y Norvig, 2003, pp. 15, 940, Moravec, 1988, p. 3, Cordeschi, 2002, Chap. 5.
  48. McCorduck, 2004, pp. 51–57, 80–107, Crevier, 1993, pp. 27–32, Russell y Norvig, 2003, pp. 15, 940, Moravec, 1988, p. 3, Cordeschi, 2002, Chap. 5.
  49. Quoted in Crevier, 1993, p. 46 and Russell y Norvig, 2003, p. 17
  50. Russell y Norvig, 2003, pp. 947,952
  51. Miller, George (2003). «La revolución cognitiva: una perspectiva histórica». Trends in Cognitive Sciences 7 (3): 141-144. PMID 12639696. doi:10.1016/s1364-6613(03)00029-9. 
  52. Russell y Norvig escribe "era sorprendente cada vez que una computadora hacía algo remotamente inteligente". Russell y Norvig, 2003, p. 18
  53. Crevier, 1993, pp. 52–107, Moravec, 1988, p. 9 and Russell y Norvig, 2003, pp. 18−21
  54. McCorduck, 2004, pp. 51–57, 80–107, Crevier, 1993, pp. 27–32, Russell y Norvig, 2003, pp. 15, 940, Moravec, 1988, p. 3, Cordeschi, 2002, Chap. 5.
  55. Heuristic: McCorduck, 2004, p. 246, Russell y Norvig, 2003, pp. 21–22
  56. GPS: McCorduck, 2004, pp. 245–250, Crevier, 1993, p. GPS?, Russell y Norvig, 2003, p. GPS?
  57. Crevier, 1993, pp. 52–107, Moravec, 1988, p. 9 and Russell y Norvig, 2003, pp. 18−21
  58. McCorduck, 2004, pp. 51–57, 80–107, Crevier, 1993, pp. 27–32, Russell y Norvig, 2003, pp. 15, 940, Moravec, 1988, p. 3, Cordeschi, 2002, Chap. 5.
  59. McCorduck, 2004, pp. 51–57, 80–107, Crevier, 1993, pp. 27–32, Russell y Norvig, 2003, pp. 15, 940, Moravec, 1988, p. 3, Cordeschi, 2002, Chap. 5.
  60. a b Crevier, 1993, pp. 79–83
  61. McCorduck, 2004, pp. 291–296, Crevier, 1993, pp. 134–139
  62. McCorduck, 2004, pp. 51–57, 80–107, Crevier, 1993, pp. 27–32, Russell y Norvig, 2003, pp. 15, 940, Moravec, 1988, p. 3, Cordeschi, 2002, Chap. 5.
  63. McCorduck, 2004, pp. 291–296, Crevier, 1993, pp. 134–139
  64. Simon y Newell, 1958, pp. 7−8 quoted in Crevier, 1993, p. 108. See also Russell y Norvig, 2003, p. 21
  65. Simon, 1965, p. 96 quoted in Crevier, 1993, p. 109
  66. Minsky, 1967, p. 2 quoted in Crevier, 1993, p. 109
  67. Minsky strongly believes he was misquoted. See McCorduck, 2004, pp. 272–274, Crevier, 1993, p. 96 and Darrach, 1970.
  68. Crevier, 1993, pp. 64–65
  69. «Andres Vegas». Cronica Global. 26 de octubre de 2020. 
  70. Oliver, Nuria (2020). Inteligencia artificial, naturalmente. Ministerio de Economía y Empresa. ISBN 978-84-92546-62-6. OCLC 1283852801. Consultado el 25 de marzo de 2022.