Cómo los objetos perdieron su magia

https://artreview.com/byung-chul-han-how-objects-lost-their-magic/?fbclid=IwAR3xBwZRH_-BGGdlPZqAlc_06Z2xuW5QKZVpg7ykz0EhAH2XVPCH-5jL3n4

El otro día se me cayó accidentalmente una tetera art-deco de plata, que ha sido mi compañera constante durante los últimos 20 años. La abolladura era enorme, y también la medida de mi pena. Sufrí noches de insomnio hasta que encontré un platero que me prometió que podría arreglarla. Ahora me encuentro esperando impacientemente su regreso, llena de temor de que, cuando llegue, ya no será lo mismo. Y, sin embargo, la experiencia me hace preguntarme: ¿por qué me he deshecho de esta manera?

Las cosas son puntos de estabilidad en la vida», escribe el filósofo suizo-alemán Byung-Chul Han, nacido en Corea del Sur, en su nuevo libro Undinge (No objetos), que acaba de publicarse en alemán. (Como ocurre con los libros de filosofía, los lectores de lengua inglesa tendrán que esperar algún tiempo para que aparezca traducido). Los objetos estabilizan la vida humana en la medida en que le dan una continuidad», escribe Han. La materia viva y su historia confieren al objeto una presencia que activa todo su entorno. Los objetos -especialmente los bien diseñados, cargados de historia y que no son necesariamente obras de arte- pueden desarrollar propiedades casi mágicas. Undinge trata de la pérdida de esta magia. El orden digital desobjetiviza el mundo convirtiéndolo en información», escribe. No son los objetos, sino la información la que gobierna el mundo vivo. Ya no habitamos el cielo y la tierra, sino la nube y Google Earth. El mundo se vuelve progresivamente intocable, brumoso y fantasmal».

Este tipo de postura crítica hacia el presente, escrita con frases claras y zen, es una característica de todos los libros de Han. Desde The Burnout Society (2010) hasta The Disappearance of Rituals (2019), describe nuestra realidad actual como una en la que las relaciones con el otro -ya sea humano u objeto- se están perdiendo; como una en la que el toque del dedo en el teléfono inteligente ha sustituido el contacto real y las relaciones reales. La cualidad fugaz de la información y la comunicación virtuales, que borra, mediante la amplificación, cualquier significado o quietud más profundos, desplaza al objeto -ya sea la gramola del apartamento del autor, o los receptores telefónicos de la infancia de Walter Benjamin, famosos por su «peso como una mancuerna»- en cuya presencia física reside un componente humano, o incluso un aura, que hace que el objeto sea misterioso y esté vivo.

En cambio, la información no ilumina el mundo, según Han. Lo deforma, nivelando la frontera entre lo verdadero y lo falso. Lo que cuenta es el efecto a corto plazo. La eficacia sustituye a la verdad», escribe aquí. Para Han, nuestra cultura del estímulo postfactual deja de lado los valores que consumen tiempo, como la lealtad, el ritual y el compromiso. Hoy en día perseguimos la información sin adquirir conocimientos. Tomamos nota de todo, sin llegar a comprender. Nos comunicamos constantemente, sin participar en una comunidad. Guardamos montones de datos, sin tener en cuenta los recuerdos. Acumulamos amigos y seguidores, sin conocer a otros. Así es como la información desarrolla una forma de vida: inexistente e impermanente».

Han habla de una infoesfera, que se ha instalado sobre los objetos. La atmósfera que se desarrolla en el espacio real a través de las relaciones con los demás y con, como él dice, «las cosas cercanas al corazón», desaparece en favor de los golpes fugaces en las pantallas, que sugieren experiencias breves e incorpóreas. Este tipo de posturas son las que le han valido a Han la reputación de pesimista cultural, de romántico quejumbroso y reaccionario al que le encanta citarse a sí mismo. Sí, naturalmente, el botón «Me gusta», el «Infierno de la Mismidad» y Martin Heidegger como antítesis terrenal de nuestro mundo afirmativo y virtualmente definido son temas a los que vuelve aquí. Estos mantras -hay casi una cualidad meditativa en su escritura, que proporciona una visión y una comprensión sin forzar al lector a esferas más elevadas- tienen que entenderse como anclas, que te atan al concepto básico, dejando que el horizonte se expanda a medida que lees.

Como escritor y hablante no nativo de alemán, Han consigue, de manera fascinante, diseccionar la engorrosa semántica de Heidegger, el filósofo de la Selva Negra, en su análisis de lo contemporáneo y esculpir las palabras de tal manera que parecen tener el tipo de calidad física que casi les permite convertirse en objetos en sí mismos. De hecho, muchos artistas se sienten atraídos por la obra de Han precisamente por esta elusión de la forma y el significado: el lenguaje pictórico, minimalista y existencial que despliega con tanta precisión, del mismo modo que el arte consigue hacerlo cuando está en su mejor momento. Vale la pena señalar también que Han no ha necesitado esperar a una pandemia para describir cómo estamos atados voluntariamente a nuestros ordenadores portátiles, cómo nos explotamos a nosotros mismos en el modo de oficina doméstica neoliberal, cómo esto nos hace sentir creativos, inteligentes y conectados mientras cubrimos nuestros sentimientos de precariedad con swipes y likes; ya lo hizo hace más de una década.

Ahora ha llegado a la etapa de abordar el compromiso y la responsabilidad, citando frases célebres de El Principito (1943): «Te haces responsable para siempre de

La inflación de conceptos

https://aeon.co/essays/conceptual-overreach-threatens-the-quality-of-public-reason

Como han subrayado filósofos políticos como Jürgen Habermas y John Rawls, una democracia floreciente tiene una sólida cultura de la razón pública, en la que todos los ciudadanos pueden participar como iguales en la deliberación colectiva y la toma de decisiones sobre el bien común de la sociedad. En los últimos años, hemos oído hablar mucho de las nuevas amenazas a la calidad de nuestra razón pública, como el aumento del autoritarismo populista, la creación de «burbujas de filtros» y «cámaras de eco» en las redes sociales que agravan la polarización política, o la difusión en línea de opiniones extremistas y «noticias falsas» por parte de bots automatizados y otros agentes malignos.

Pero hay otro tipo de amenaza para la calidad de la razón pública que suele pasar desapercibida. Se trata de la degradación de las ideas fundamentales que se movilizan en los ejercicios de la razón pública, sobre todo en las declaraciones de los actores de la élite, como burócratas, abogados, políticos y representantes de organizaciones internacionales y ONG. Estas ideas -salud, derechos humanos, democracia, etc.- son fundamentales para formular y abordar los principales retos políticos de nuestro tiempo, desde la crisis climática hasta la pandemia del COVID-19.

Una forma destacada de esta degradación de la razón pública es el fenómeno que denomino «extralimitación conceptual». Esto ocurre cuando un concepto particular sufre un proceso de expansión o inflación en el que absorbe ideas y demandas que le son ajenas. En su manifestación más extrema, la extralimitación conceptual se transforma en un dogma totalizador «todo en uno». Un solo concepto -por ejemplo, los derechos humanos o el Estado de Derecho- se considera una ideología política completa, en lugar de elegir uno de los muchos elementos en los que nuestro pensamiento político debe basarse y mantener el equilibrio para llegar a respuestas justificadas a los problemas de nuestro tiempo. Por supuesto, siempre necesitaremos algunos conceptos muy generales para referirnos a vastos ámbitos de valor: las ideas de ética, justicia y moral, por ejemplo, han cumplido tradicionalmente esta función. El problema es cuando hay una tendencia sistemática a que conceptos de valor más específicos aspiren al mismo nivel de generalidad.

Pero, ¿por qué preocuparse por la extralimitación conceptual? Si los «derechos humanos», por ejemplo, son una expresión que engloba cada vez más cosas que son objetivos realmente valiosos, ¿por qué deberíamos objetar la etiqueta que se les pone? ¿No es esto una mera pedantería? Ni mucho menos, creo.

Uno de los peligros de la exageración conceptual es que perdemos de vista la idea distintiva que transmite un determinado concepto al estar inmerso en un mar de muchas otras ideas bastante distintas, un significado que va más allá del hecho básico de que todas las ideas en cuestión identifican algo de valor. Si, por ejemplo, los derechos humanos son demandas que suelen ser de alta prioridad, de manera que rara vez, o nunca, se justifica anularlos, entonces perdemos el control de esa importante idea si empezamos a incluir bajo el título de «derechos humanos» objetivos valiosos -por ejemplo, el acceso a una conexión a Internet de alta calidad- que no gozan plausiblemente de ese tipo de prioridad. Otro peligro es que las ideas extrañas que se someten a un proceso de toma de posesión conceptual acaban siendo ellas mismas distorsionadas. Así, por ejemplo, empezamos a considerar modos de tratamiento que son beneficiosos para alguien, como la misericordia hacia un delincuente condenado, como beneficios a los que tiene derecho.

Como resultado, esta exageración conceptual nos deja en mala posición para identificar los distintos valores que están en juego en cualquier decisión. También oculta los agónicos conflictos que existen entre estos valores en casos concretos. Pero estos dos grandes defectos intelectuales también generan graves inconvenientes prácticos cuando intentamos deliberar con otros. La exageración conceptual en sus formas más extremas inhibe el diálogo constructivo, o incluso la simple mediación de compromisos honorables, con aquellos cuya orientación política difiere significativamente de la nuestra. Ello se debe a que dificulta la búsqueda de un punto común o de un entendimiento compartido con ellos. En cambio, cuando intentamos llegar a algún tipo de acuerdo razonable con ellos basado, por ejemplo, en la equidad o los derechos humanos, nos encontramos con visiones del mundo político-moral opuestas en todo momento.

La filosofía es para los blancos elegantes con fondos fiduciarios»: ¿por qué hay tan pocas mujeres?

https://www.theguardian.com/higher-education-network/2015/jan/05/philosophy-is-for-posh-white-boys-with-trust-funds-why-are-there-so-few-women

La filosofía destaca entre las humanidades: es una de las pocas asignaturas en las que las mujeres superan ampliamente a los hombres.

Aunque el número de estudiantes masculinos y femeninos en los cursos de licenciatura de filosofía es casi igual, el número de mujeres que siguen una carrera en filosofía es mucho menor. Un reciente informe de la Equality Challenge Unit reveló que, entre las asignaturas no relacionadas con la ciencia, la tecnología, la ingeniería y las matemáticas, la filosofía es una de las más dominadas por los hombres, que representan el 71,2% de la profesión.

¿Por qué no hay más mujeres filósofas? ¿Y cómo pueden los departamentos universitarios ser más inclusivos?

Jennifer Saul

Estamos empezando a hacer algunos pequeños progresos en la lucha contra un problema que lleva demasiado tiempo». Fotografía: Jennifer Saul

Profesora Jennifer Saul, directora del departamento de filosofía de la Universidad de Sheffield

Cuando era estudiante de doctorado en Princeton en los años 90, nadie que yo conociera hablaba de forma sistemática sobre las mujeres en la filosofía. Sólo recuerdo una conversación, en un tren, en la que varias estudiantes de doctorado comentábamos lo poco que hablábamos en los seminarios, e intercambiábamos algunos consejos sobre cómo superar el miedo a hablar que, de alguna manera, sólo nos había sobrevenido al llegar a la escuela de posgrado: «¡Acostúmbrate a tu voz! Intenta preguntar «¿cómo se escribe ese nombre?».

No fue hasta muchos años después cuando empecé a conocer a mujeres que sí se reunían para hablar de estos temas. Entonces me enteré de que las mujeres sólo representan el 17% del personal académico a tiempo completo en filosofía en Estados Unidos (el Reino Unido es un poco mejor, con un 29%). Y me enteré de que esto era peor que en la mayoría de los campos de la ciencia, donde las disparidades de género han sido durante mucho tiempo una fuente de preocupación. Quería saber más sobre la variedad de experiencias de las mujeres -buenas y malas- en la filosofía. Así que decidí crear un blog donde la gente pudiera compartir breves anécdotas anónimas.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Fundamentos filosóficos para la ética digital y la ética de la IA: un enfoque digno

https://link.springer.com/article/10.1007/s43681-021-00040-9

La ética de la IA es un campo floreciente y relativamente nuevo que ha surgido en respuesta a la creciente preocupación por el impacto de la inteligencia artificial (IA) en los individuos humanos y sus instituciones sociales. A su vez, la ética de la IA forma parte del campo más amplio de la ética digital, que aborda preocupaciones similares generadas por el desarrollo y el despliegue de las nuevas tecnologías digitales. Aquí abordamos la importante preocupación de que la ética digital en general, y la de la IA en particular, carecen de fundamentos filosóficos adecuados. En respuesta directa a esa preocupación, formulamos y justificamos racionalmente algunos conceptos y principios básicos para la ética digital/ética de la IA, todos ellos extraídos de una teoría ampliamente kantiana de la dignidad humana. Nuestro argumento, que está diseñado para ser relativamente compacto y fácilmente accesible, se presenta en diez pasos distintos: (1) qué significa «ética digital» y «ética de la IA», (2) refutar al escéptico de la dignidad, (3) la metafísica de la dignidad humana, (4) la felicidad o el florecimiento humano, las verdaderas necesidades humanas y la dignidad humana, (5) nuestras obligaciones morales con respecto a todas las personas reales humanas, (6) qué es un autómata natural o una máquina natural, (7) por qué las personas reales humanas no son autómatas naturales/máquinas naturales: porque la conciencia es una forma de vida, (8) nuestras obligaciones morales con respecto al diseño y uso de autómatas artificiales o máquinas artificiales, también conocidos como ordenadores, y la tecnología digital en general, (9) qué es la privacidad, por qué las invasiones de la privacidad digital son moralmente inadmisibles, mientras que las entradas consentidas en la privacidad digital son moralmente permisibles o incluso obligatorias, y finalmente (10) la moralidad dignitaria frente a la legalidad, y la ética digital/ética de la IA. Concluimos afirmando nuestra firme creencia de que una ética digital dignitaria/ética de la IA bien fundada y generalmente aceptada es de importancia existencial global para la humanidad.

Máquinas del tiempo: Inteligencia Artificial, Proceso y Narrativa

https://link.springer.com/article/10.1007/s13347-021-00479-y

Aunque hoy en día se discute mucho sobre la ética de la inteligencia artificial (IA), se ha trabajado menos sobre la naturaleza filosófica de la IA. Basándose en Bergson y Ricoeur, este artículo propone utilizar los conceptos de tiempo, proceso y narrativa para conceptualizar la IA y su impacto normativamente relevante en la vida humana y la sociedad. Distinguiendo entre una serie de formas diferentes en las que la IA y el tiempo están relacionados, el artículo explora lo que significa entender la IA como narrativa, como proceso o como el resultado emergente de procesos y narrativas. Presta especial atención a lo que denomina los papeles de «narrador» y «máquina del tiempo» de la IA y las implicaciones normativas de estos papeles. Sostiene que los procesos y las narrativas de la IA dan forma a nuestro tiempo y vinculan el pasado, el presente y el futuro de formas particulares que son ética y políticamente significativas. 

Falso Positivismo

https://reallifemag.com/false-positivism/

Durante la pandemia, el significado cotidiano de la modelización -representaciones de la realidad basadas en datos y diseñadas para informar la planificación- se hizo ineludible. Vimos nuestros planes, miedos y deseos a través de la lente de los agregados estadísticos: Los gráficos de las tasas de infección se convirtieron en representaciones no sólo de la propagación del virus, sino también de los planes destrozados, la ansiedad por los cierres, la preocupación por el destino de nuestras comunidades. 

Pero a medida que los modelos epidemiológicos se hacían más influyentes, sus implicaciones se revelaron como cualquier cosa menos absolutas. Uno de los modelos, el modelo Recidiviz Covid-19 para el encarcelamiento, predecía altas tasas de infección en las prisiones y, en consecuencia, una sobrecarga en los hospitales. Aunque estas predicciones se utilizaron como base para liberar a algunos presos antes de tiempo, el modelo también ha sido citado por quienes buscan incorporar más tecnologías de vigilancia basadas en datos a la gestión de las prisiones, una tendencia en la que nuevas empresas de IA como Blue Prism y Staqu están ansiosas por participar. Así pues, el mismo modelo apoya tanto el llamamiento a reducir el tamaño de las prisiones como la demanda de ampliar sus operaciones, incluso cuando ambos pueden afirmar que se centran en aplanar la curva. 

La coordinación impersonal y a gran escala de los modelos puede parecer un escape de la política subjetiva. Tiene sus raíces en un antiguo deseo de racionalizar el pensamiento político

Si las ideas del mismo modelo pueden utilizarse para justificar intervenciones y decisiones políticas muy divergentes, ¿qué debemos hacer con la idea filosófica de que el modelado basado en datos puede liberar la toma de decisiones de la política? Los defensores de la gobernanza algorítmica argumentan como si los «hechos», si se reúnen suficientes y se hacen eficaces, revelaran la respuesta «racional y equitativa» a las condiciones existentes. Y si los modelos existentes parecen ofrecer resultados ambiguos, podrían argumentar, sólo significa que la vigilancia y la intervención tecnológica no han sido lo suficientemente exhaustivas. 

Pero, ¿un compromiso con los hechos justifica realmente que se ignoren las preocupaciones sobre la privacidad y la agencia individuales? Muchos empezaron a plantearse esta pregunta cuando se propusieron nuevos sistemas de rastreo de contactos y de penalización de las violaciones de las recomendaciones de distanciamiento social para luchar contra el coronavirus. ¿Y el hecho de disponer de suficientes «hechos» garantiza realmente que estos sistemas puedan considerarse inequívocamente justos? Incluso la plataforma de predicción de la delincuencia PredPol, abandonada por el Departamento de Policía de Los Ángeles cuando los críticos y los activistas desacreditaron sus teorías pseudocientíficas sobre el comportamiento delictivo y detallaron sus sesgos, aprovechó la oportunidad para rebautizarse como una herramienta epidemiológica, una forma de predecir la propagación del coronavirus y aplicar cierres selectivos. Después de todo, ya había modelado la delincuencia como un «proceso similar al contagio», ¿por qué no un contagio real?

Reiniciar el sistema: Por qué debe cambiar la industria tecnológica

https://hai.stanford.edu/news/rebooting-system-why-tech-industry-must-change

Mucha gente cree que la revolución digital nos ha arrastrado como un maremoto y que no tenemos ningún control sobre ella. Nosotros escribimos el libro porque creemos que la gente puede y debe desempeñar un papel activo en la configuración de la tecnología.

Imagen de la portada del libro System ErrorY como académicos de diversos campos, también tuvimos nuestras razones individuales para escribir el libro. Jeremy Weinstein, que trabajó en la administración de Obama, quería ayudar a los responsables políticos a adquirir los conocimientos técnicos necesarios para enfrentarse a los retos de las grandes tecnologías. Mehran Sahami, como profesor de ciencias de la computación que trabajó en Google, quería ayudar a sus estudiantes a entrar en la fuerza de trabajo con una sólida comprensión de las consecuencias sociales potencialmente negativas de la tecnología, ayudar a los trabajadores de la tecnología a garantizar que los productos que están desarrollando son beneficiosos para la sociedad, y ayudar a los inversores a tomar decisiones éticas en las empresas que deciden apoyar. Y yo, como filósofo político, quería mostrar cómo los ciudadanos pueden marcar la diferencia y la democracia puede estar a la altura del reto de aprovechar los grandes beneficios de la tecnología y al mismo tiempo mitigar los daños que ahora son tan evidentes para todos nosotros.  

Los tecnólogos suelen pensar en la optimización: cómo crear la herramienta más eficaz. ¿Qué riesgos conlleva la mentalidad de optimización de los tecnólogos para una sociedad democrática?

La mentalidad de optimización del tecnólogo se inculca desde el principio en la formación de ciencias informáticas o de ingeniería. Y aunque tiene su lugar, a menudo parece convertirse en una visión del mundo en la que todo en la vida es un problema de optimización. 

La optimización no es intrínsecamente buena. Es un medio para conseguir un fin, nada más. No queremos optimizar cosas que son malas. Es más, la optimización depende de que algo sea medible matemáticamente, o computacionalmente manejable, y eso puede llevar a los ingenieros a elegir medidas imperfectas o engañosas. Facebook, por ejemplo, pretendía conectar a la gente, pero su principal medida de éxito era el número de personas en la plataforma, que no es una buena medida de la conexión humana.  

En última instancia, sin embargo, el mayor problema de la mentalidad de optimización es que lleva a la gente a ser escéptica o incluso cínica con respecto a las instituciones democráticas que a menudo parecen disfuncionales y subóptimas a la hora de ofrecer las cosas que queremos como ciudadanos. Pero es un error pensar que las instituciones democráticas se concibieron para optimizar en primer lugar. Esto se debe a que, en una sociedad democrática, los ciudadanos tienen preferencias y valores diferentes. Apreciamos el pluralismo y la tolerancia hacia las personas con ideas diferentes sobre la mejor manera de vivir. La democracia no es un aparato institucional para optimizar algún resultado. Es esencialmente un diseño tecnológico para arbitrar y resolver equitativamente los desacuerdos que tenemos como ciudadanos, y eso es lo que hace que la democracia sea importante y valiosa. 

*** Translated with http://www.DeepL.com/Translator (free version) ***

¿Qué hay de malo en la IA? La verdadera inteligencia de las máquinas frente a la inteligencia humana artificial

https://www.linkedin.com/pulse/whats-fundamentally-wrong-ai-azamat-abdoullaev/

La Inteligencia Artificial con la Robótica está preparada para cambiar nuestro mundo de arriba a abajo, prometiendo ayudar a resolver algunos de los problemas más acuciantes del mundo, desde la asistencia sanitaria hasta la economía, pasando por la predicción de crisis globales y las respuestas oportunas.

https://www.weforum.org/agenda/2019/01/to-eliminate-human-bias-from-ai-we-need-to-rethink-our-approach/

Pero al adoptar, integrar e implementar las tecnologías de IA, como dice un informe de Deloitte, alrededor del 94% de las empresas se enfrentan a posibles problemas.

Este artículo no trata de los problemas de la IA, como la falta de conocimientos técnicos, la adquisición y el almacenamiento de datos, el aprendizaje por transferencia, la costosa mano de obra, los retos éticos o legales, la adicción a los grandes datos, la velocidad de cálculo, la caja negra, la estrecha especialización, los mitos y las expectativas y los riesgos, los sesgos cognitivos o el factor precio. No es nuestro tema discutir por qué las organizaciones pequeñas y medianas luchan por adoptar costosas tecnologías de IA, mientras que las grandes empresas como Facebook, Apple, Microsoft, Google, Amazon, IBM asignan un presupuesto separado para adquirir startups de IA. 

Cómo reconocer cuando la tecnología nos lleva por una «pendiente resbaladiza

https://onezero.medium.com/how-to-recognize-when-tech-is-leading-us-down-a-slippery-slope-747116da2de

Cuando la gente se preocupa por el impacto de una nueva tecnología, a menudo les preocupa que nos lleve a la ruina.

A veces se asustan sin razón. Las nuevas tecnologías -sobre todo las que afectan a la comunicación o dan a los jóvenes nuevas habilidades- inquietan a la gente todo el tiempo, pero no destruyen el mundo. En el pasado, la gente se preocupaba de que el teléfono destruyera las conversaciones cara a cara, de que la cámara portátil destruyera toda la privacidad pública y de que el pinball convirtiera a los niños en delincuentes.

En cada caso, los críticos se preocupaban de que la nueva tecnología empeorara un poco el comportamiento de la gente, y entonces ese cambio causaría resultados aún más malos, y así sucesivamente. Estaríamos en una «pendiente resbaladiza» hacia la ruina. (De hecho, ciudades como Nueva York llegaron a prohibir el pinball durante cuarenta años, desde mediados de los años 30 hasta mediados de los 70).

Por eso, en el mundo de la filosofía y la tecnología, los argumentos de la «pendiente resbaladiza» suelen considerarse poco convincentes. A menudo, los críticos se sienten personalmente molestos por los nuevos comportamientos que la tecnología ha generado. Pero no se trata de una ruina social.

Sin embargo, a veces la pendiente resbaladiza es real. En los primeros tiempos del automóvil, algunos críticos temían que los coches se apoderaran de las calles de las ciudades, y que nos volviéramos tan adictos a los viajes en coche que reconstruyéramos todo el país en torno a ellos. Esos críticos dieron en el clavo. Eso realmente ocurrió. Lo mismo ocurre con Facebook u otras redes sociales; algunos de los primeros críticos (como el filósofo Ian Bogost) predijeron que envenenarían la vida social y cívica. De nuevo: Lo clavaron.

Noam Chomsky habla de los errores de la inteligencia artificial

https://www.theatlantic.com/technology/archive/2012/11/noam-chomsky-on-where-artificial-intelligence-went-wrong/261637/

Si tuviéramos que hacer una lista de los mayores y más difíciles retos intelectuales de la civilización, el problema de «descodificarnos» a nosotros mismos -comprender el funcionamiento interno de nuestras mentes y nuestros cerebros, y cómo la arquitectura de estos elementos está codificada en nuestro genoma- estaría sin duda a la cabeza. Sin embargo, los diversos campos que asumieron este reto, desde la filosofía y la psicología hasta la informática y la neurociencia, han estado plagados de desacuerdos sobre el enfoque correcto.

En 1956, el informático John McCarthy acuñó el término «Inteligencia Artificial» (IA) para describir el estudio de la inteligencia mediante la implementación de sus características esenciales en un ordenador. La instanciación de un sistema inteligente mediante un hardware fabricado por el hombre, en lugar de nuestro propio «hardware biológico» de células y tejidos, mostraría la comprensión definitiva y tendría evidentes aplicaciones prácticas en la creación de dispositivos inteligentes o incluso robots.

Sin embargo, algunos de los colegas de McCarthy en departamentos vecinos estaban más interesados en cómo se implementa la inteligencia en los seres humanos (y otros animales) primero. Noam Chomsky y otros trabajaron en lo que se convirtió en la ciencia cognitiva, un campo destinado a descubrir las representaciones mentales y las reglas que subyacen a nuestras capacidades perceptivas y cognitivas. Chomsky y sus colegas tuvieron que derrocar el paradigma entonces dominante del conductismo, defendido por el psicólogo de Harvard B.F. Skinner, en el que el comportamiento animal se reducía a un simple conjunto de asociaciones entre una acción y su posterior recompensa o castigo. El fin de la influencia de Skinner en la psicología está marcado por la reseña crítica que Chomsky hizo en 1959 del libro de Skinner titulado Comportamiento verbal, en el que Skinner intentaba explicar la capacidad lingüística utilizando principios conductistas.

El enfoque de Skinner hacía hincapié en las asociaciones históricas entre un estímulo y la respuesta del animal -un enfoque fácilmente enmarcado como una especie de análisis estadístico empírico, que predice el futuro en función del pasado. La concepción del lenguaje de Chomsky, en cambio, hacía hincapié en la complejidad de las representaciones internas, codificadas en el genoma, y en su maduración a la luz de los datos adecuados en un sofisticado sistema computacional, que no puede desglosarse de forma útil en un conjunto de asociaciones. Los principios conductistas de las asociaciones no podrían explicar la riqueza del conocimiento lingüístico, el uso infinitamente creativo que hacemos de él o la rapidez con que los niños lo adquieren con una exposición mínima e imperfecta al lenguaje que les presenta su entorno. La «facultad lingüística», como la denominaba Chomsky, formaba parte de la dotación genética del organismo, al igual que el sistema visual, el sistema inmunitario y el sistema circulatorio, y deberíamos abordarla de la misma manera que nos acercamos a estos otros sistemas biológicos más prácticos.

Crea tu sitio web con WordPress.com
Comenzar