Capacidades de la IA, bombo y platillo, y poder

La exageración de la IA se refiere a una situación en la que las capacidades reivindicadas o percibidas de la IA superan las capacidades reales de los sistemas en cuestión. Sin embargo, no toda esta exageración es inocente, ya que la percepción que el público, los académicos, los empresarios y los políticos tienen sobre la IA determina su forma de actuar, invertir, comportarse y legislar. En el episodio de hoy, Dwayne Monroe acude a TDSlowdown para hablar de estas cuestiones y, en particular, para permitirme profundizar un poco más en su pensamiento sobre lo que él llama la IA como propaganda.

Aquí hay un enlace al artículo de Dwayne sobre el tema: monroelab.net/attack-mannequins-ai-as-propaganda

Y aquí hay un enlace a un artículo que he escrito sobre un tema relacionado: www.igi-global.com/article/confounding-complexity-of-machine-action/269437

El aprendizaje profundo no es de fiar

https://spectrum.ieee.org/deep-learning-cant-be-trusted

Durante los últimos 20 años, el aprendizaje profundo ha llegado a dominar la investigación y las aplicaciones de la inteligencia artificial gracias a una serie de útiles aplicaciones comerciales. Pero bajo el deslumbramiento hay algunos problemas de fondo que amenazan el ascenso de la tecnología.

La incapacidad de un programa típico de aprendizaje profundo para rendir bien en más de una tarea, por ejemplo, limita gravemente la aplicación de la tecnología a tareas específicas en entornos rígidamente controlados. Y lo que es más grave, se ha afirmado que el aprendizaje profundo no es digno de confianza porque no es explicable, y no es adecuado para algunas aplicaciones porque puede experimentar olvidos catastróficos. Dicho más claramente, si el algoritmo funciona, puede ser imposible entender completamente por qué. Y mientras la herramienta está aprendiendo lentamente una nueva base de datos, una parte arbitraria de sus recuerdos aprendidos puede colapsar de repente. Por lo tanto, podría ser arriesgado utilizar el aprendizaje profundo en cualquier aplicación de vida o muerte, como una médica.

Ahora, en un nuevo libro, Stephen Grossberg, miembro del IEEE, sostiene que es necesario un enfoque totalmente diferente. Conscious Mind, Resonant Brain: How Each Brain Makes a Mind (Mente consciente, cerebro resonante: cómo cada cerebro crea una mente) describe un modelo alternativo tanto para la inteligencia biológica como para la artificial, basado en la investigación cognitiva y neuronal que Grossberg ha llevado a cabo durante décadas. Llama a su modelo Teoría de la Resonancia Adaptativa (ART).

Grossberg -profesor de sistemas cognitivos y neuronales, y de matemáticas y estadística, ciencias psicológicas y del cerebro e ingeniería biomédica en la Universidad de Boston- basa la ART en sus teorías sobre cómo procesa la información el cerebro.

«Nuestros cerebros aprenden a reconocer y predecir objetos y eventos en un mundo cambiante y lleno de acontecimientos inesperados», afirma.

Basándose en esa dinámica, ART utiliza métodos de aprendizaje supervisado y no supervisado para resolver problemas como el reconocimiento y la predicción de patrones. Los algoritmos que utilizan esta teoría se han incluido en aplicaciones a gran escala como la clasificación de señales de sonar y radar, la detección de la apnea del sueño, la recomendación de películas y el software de asistencia al conductor basado en la visión por ordenador.

El ART puede utilizarse con confianza porque es explicable y no experimenta olvidos catastróficos, afirma Grossberg. Añade que el ART resuelve lo que él ha llamado el dilema estabilidad-plasticidad: cómo un cerebro u otro sistema de aprendizaje puede aprender de forma autónoma y rápida (plasticidad) sin experimentar un olvido catastrófico (estabilidad).

Ilustración de un cerebro sobre un patrón de cuadros azules y rojos.  

Grossberg, que formuló el ART en 1976, es un pionero en la modelización de cómo los cerebros se vuelven inteligentes. Es el fundador y director del Centro de Sistemas Adaptativos de la Universidad de Boston y el director fundador del Centro de Excelencia para el Aprendizaje en Educación, Ciencia y Tecnología. Ambos centros han tratado de entender cómo se adapta y aprende el cerebro, y de desarrollar aplicaciones tecnológicas basadas en sus descubrimientos.

Por las «contribuciones de Grossberg a la comprensión de la cognición y el comportamiento del cerebro, y su emulación por la tecnología», recibió el premio IEEE Frank Rosenblatt 2017, que lleva el nombre del profesor de Cornell considerado por algunos como el «padre del aprendizaje profundo.»

Grossberg intenta explicar en su libro de casi 800 páginas cómo «el pequeño bulto de carne que llamamos cerebro» da lugar a pensamientos, sentimientos, esperanzas, sensaciones y planes. En concreto, describe modelos neuronales biológicos que intentan explicar cómo sucede. El libro también aborda las causas subyacentes de enfermedades como el Alzheimer, el autismo, la amnesia y el trastorno de estrés postraumático.

«Entender cómo los cerebros dan lugar a las mentes también es importante para diseñar sistemas inteligentes en informática, ingeniería y tecnología, incluyendo la IA y los robots inteligentes», escribe. «Muchas empresas han aplicado algoritmos de inspiración biológica del tipo que resume este libro en múltiples aplicaciones de ingeniería y tecnología».

Las teorías del libro, dice, no sólo son útiles para entender el cerebro, sino que también pueden aplicarse al diseño de sistemas inteligentes capaces de adaptarse de forma autónoma a un mundo cambiante. En conjunto, el libro describe el proceso fundamental que permite a las personas ser inteligentes, autónomas y versátiles.

LA BELLEZA DEL ARTE

Grossberg escribe que el cerebro evolucionó para adaptarse a nuevos retos. Hay un conjunto de mecanismos cerebrales comunes que controlan cómo los humanos retienen la información sin olvidar lo que ya han aprendido, dice.

«Retenemos recuerdos estables de experiencias pasadas, y estas secuencias de eventos se almacenan en nuestras memorias de trabajo para ayudar a predecir nuestros comportamientos futuros», dice. «Los seres humanos tienen la capacidad de seguir aprendiendo a lo largo de su vida, sin que los nuevos aprendizajes borren los recuerdos de la información importante que hemos aprendido antes».

*** Translated with http://www.DeepL.com/Translator (free version) ***

El mito de la inteligencia artificial

https://prospect.org/culture/books/myth-of-artificial-intelligence-kissinger-schmidt-huttenlocher/

El término «inteligencia artificial» es ampliamente reconocido por los investigadores no como un descriptor técnicamente preciso, sino como un proyecto con aspiraciones que comprende una creciente colección de tecnologías centradas en los datos. La reciente tendencia de la IA se inició en 2010, cuando una combinación de mayor potencia de cálculo y enormes cantidades de datos de la web reanimó el interés por técnicas de hace décadas. Lo nuevo no eran los algoritmos, sino los recursos concentrados y los modelos de negocio de vigilancia capaces de recoger, almacenar y procesar cantidades de datos antes insondables.

ND21 Whittaker cover.jpg

En otras palabras, los llamados «avances» en IA celebrados en la última década son principalmente el producto de los datos y recursos informáticos significativamente concentrados que residen en manos de unas pocas grandes corporaciones tecnológicas como Amazon, Facebook y Google. Al mismo tiempo, las tecnologías de IA se muestran cada vez más frágiles, sistemáticamente sesgadas y aplicadas de manera que exacerban la desigualdad racial.

La era de la inteligencia artificial trata de eliminar el debate sobre la inteligencia artificial ocultando las tecnologías relevantes y la economía política que hay detrás de ellas. Sólo su título -La era de la IA: y nuestro futuro humano- proclama una época y aspira a hablar en nombre de todos. Presenta la IA como una entidad, como algo sobrehumano e inevitable, al tiempo que borra una historia de estudios y críticas de las tecnologías de IA que demuestran sus límites y riesgos inherentes, el trabajo irreductible que se requiere para mantenerlas y los incentivos financieros de las empresas tecnológicas que las producen y se benefician de ellas.

Aunque la contribución intelectual del libro es marginal, la agenda política de sus autores merece una cuidadosa consideración.

Henry Kissinger no necesita presentación. Incluso a sus 98 años, sigue siendo una voz influyente en la política exterior a pesar de su compromiso sostenido con el excepcionalismo estadounidense, el dominio militar y el afianzamiento del complejo militar-industrial.

El público está reconociendo que puede elegir si la IA se desarrolla y se adopta ampliamente.

Eric Schmidt es el ex director ejecutivo de Google y ex presidente ejecutivo de su empresa matriz Alphabet. Ha trabajado durante la última década para fomentar las inversiones de los establecimientos militares y de inteligencia en infraestructuras de Big Tech y para comercializar sus productos, incluidas las tecnologías de IA de Google, como indispensables para la destreza militar de Estados Unidos. También es multimillonario y filántropo, cuyo Schmidt Futures suscribe puestos en todo el gobierno federal, y muchas organizaciones e iniciativas de la sociedad civil relacionadas con la tecnología. En los últimos años, ha presidido la Comisión de Seguridad Nacional sobre Inteligencia Artificial (NSCAI), un consejo asesor del Congreso y el Pentágono compuesto por ejecutivos de las grandes empresas tecnológicas, profesionales militares y de inteligencia, y élites académicas.

Daniel Huttenlocher es el decano del Schwarzman College of Computing del MIT, un megalaboratorio centrado en la IA que se puso en marcha gracias a una donación de 350 millones de dólares del especulador de la exclusión y partidario de Trump desde hace tiempo Stephen Schwarzman, cofundador del grupo de inversión Blackstone. Huttenlocher es también presidente del consejo de administración de la Fundación MacArthur, que financia iniciativas y organizaciones progresistas sin ánimo de lucro centradas en la responsabilidad tecnológica.

Mantenga este sitio libre y abierto para que todos lo lean…

APOYAR LA PERSPECTIVA

Este libro proporciona a Eric Schmidt y a sus coautores una nueva ocasión para realizar una campaña de relaciones públicas bien financiada, durante la cual tendrán la oportunidad de presentar sus puntos de vista a grandes audiencias, y probablemente de informar a los responsables políticos y a otros actores políticos.

De este modo, The Age of AI debe entenderse como un complemento del trabajo que el NSCAI ya ha realizado bajo la dirección de Schmidt. En marzo, el NSCAI publicó un informe que se hacía eco de la retórica de la Guerra Fría para recomendar 40.000 millones de dólares en inversiones federales en IA, advirtiendo que Estados Unidos debe mantener la supremacía en IA o arriesgarse a ser eclipsado por China. El informe del NSCAI y The Age of AI sirven a la agenda de las grandes empresas tecnológicas a través de tres estrategias retóricas.

En primer lugar, posicionan la IA y la potencia de cálculo de Big Tech como infraestructura nacional crítica, a través de entornos de investigación y desarrollo, y operaciones militares y gubernamentales. En segundo lugar, proponen «soluciones» que sirven para enriquecer enormemente a las empresas tecnológicas, ayudándolas a cumplir sus previsiones de beneficios y crecimiento, al tiempo que financian programas de investigación centrados en la IA en universidades de primer nivel. Esto sirve para acercar a las grandes empresas tecnológicas y al mundo académico, fusionando aún más sus intereses y disuadiendo la disidencia significativa de una nueva ola de investigadores críticos con Silicon Valley. En tercer lugar, y lo que es más importante, al proporcionar argumentos en contra de frenar el poder de las grandes empresas tecnológicas, el libro presenta a estas empresas como demasiado importantes para el interés nacional estadounidense como para regularlas o disolverlas. Esos argumentos podrían leerse en contra de los defensores de la defensa del monopolio y los críticos de la tecnología dentro de la administración Biden, que se han comprometido a frenar el poder concentrado de Silicon Valley.

OV

*** Translated with http://www.DeepL.com/Translator (free version) ***

EL ELEVADO COSTE DE LA CAPTURA

https://interactions.acm.org/archive/view/november-december-2021/the-steep-cost-of-capture

Este es un momento peligroso. Los sistemas informáticos privados comercializados como inteligencia artificial (IA) se están introduciendo en nuestra vida e instituciones públicas, concentrando el poder industrial, agravando la marginación y configurando silenciosamente el acceso a los recursos y la información.

ins01.gif

A la hora de considerar cómo hacer frente a este ataque de la IA industrial, debemos reconocer en primer lugar que los «avances» de la IA celebrados en la última década no se debieron a avances científicos fundamentales en las técnicas de IA. Fueron y son principalmente el producto de una concentración significativa de datos y recursos de computación que residen en las manos de unas pocas grandes corporaciones tecnológicas. La IA moderna depende fundamentalmente de los recursos y las prácticas comerciales de las empresas, y nuestra creciente dependencia de dicha IA cede un poder desmesurado sobre nuestras vidas e instituciones a un puñado de empresas tecnológicas. También da a estas empresas una influencia significativa tanto en la dirección del desarrollo de la IA como en las instituciones académicas que desean investigarla. Esto significa que las empresas tecnológicas están sorprendentemente bien posicionadas para dar forma a lo que sabemos -y a lo que no sabemos- sobre la IA y el negocio que hay detrás, al mismo tiempo que sus productos de IA están trabajando para dar forma a nuestras vidas e instituciones.

volver al principio Perspectivas

→ El control de las grandes tecnológicas sobre los recursos de la IA hizo que las universidades y otras instituciones dependieran de estas empresas, creando una red de relaciones conflictivas que amenazan la libertad académica y nuestra capacidad para entender y regular estas tecnologías corporativas.

→ Para garantizar una investigación independiente y rigurosa y una defensa capaz de entender y comprobar estas tecnologías, y las empresas que están detrás de ellas, necesitamos organizarnos, dentro de la tecnología y dentro de la universidad.

Al examinar la historia de la influencia del ejército estadounidense sobre la investigación científica durante la Guerra Fría, vemos paralelismos con la influencia actual de la industria tecnológica sobre la IA. Esta historia también ofrece ejemplos alarmantes de la forma en que el dominio militar de EE.UU. trabajó para dar forma a la producción de conocimiento académico, y para castigar a los que disentían.

Hoy en día, la industria tecnológica se enfrenta a una presión reguladora cada vez mayor, y está aumentando sus esfuerzos para crear narrativas positivas para la tecnología y para silenciar y marginar a los críticos de la misma manera que el ejército de EE.UU. y sus aliados lo hicieron en el pasado. En conjunto, vemos que el dominio de la industria tecnológica en la investigación y la producción de conocimientos sobre la IA coloca a los investigadores y defensores críticos dentro y fuera del ámbito académico en una posición traicionera. Esto amenaza con privar a las comunidades de primera línea, a los responsables políticos y al público de conocimientos vitales sobre los costes y las consecuencias de la IA y la industria responsable de ella, justo en el momento en que este trabajo es más necesario.

Al revisar el alcance de la influencia actual de las grandes empresas tecnológicas sobre la IA y la investigación en IA, es útil comenzar con una breve historia del actual giro hacia la IA. Dado que el campo de la IA tiene casi 70 años y ha pasado por varios «inviernos de la IA», ¿por qué la IA se hizo grande en la última década? ¿Y de qué hablamos cuando hablamos de IA? La respuesta a estas preguntas pone de manifiesto la mutabilidad del término IA. También centra nuestra atención en la centralidad de los recursos corporativos concentrados en el actual auge de la IA, y en cómo el control monopolístico de estos recursos dio a un puñado de empresas tecnológicas la autoridad para (re)definir el campo de la IA, al tiempo que encerraba el conocimiento sobre los sistemas de IA tras el secreto corporativo.

Las empresas tecnológicas están sorprendentemente bien posicionadas para dar forma a lo que sabemos -y lo que no sabemos- sobre la IA y el negocio que hay detrás, al mismo tiempo que sus productos de IA están trabajando para dar forma a nuestras vidas e instituciones.

En 2012, un equipo de investigación con sede en Toronto creó un algoritmo llamado AlexNet que ganó el reto de reconocimiento visual a gran escala de ImageNet. Esto marcó un momento clave en la historia reciente de la IA y fue un gran acontecimiento en la industria tecnológica. Demostró que el aprendizaje automático supervisado era sorprendentemente eficaz en el reconocimiento predictivo de patrones cuando se entrenaba utilizando una potencia computacional significativa y cantidades masivas de datos etiquetados [1]. El algoritmo AlexNet se basaba en técnicas de aprendizaje automático que tenían casi dos décadas de antigüedad. Pero no fue el algoritmo lo que supuso un gran avance: fue lo que el algoritmo podía hacer cuando se combinaba con datos a gran escala y recursos computacionales.

AlexNet trazó un camino a seguir para las grandes empresas tecnológicas que buscan cimentar y ampliar su poder. Los recursos de los que dependía el éxito de AlexNet eran los que las grandes empresas tecnológicas ya controlaban: una vasta infraestructura computacional, cantidades masivas de datos (y sistemas para procesarlos y almacenarlos), un alcance arraigado en el mercado que garantizaba la recopilación persistente de datos, y el capital para contratar y retener el escaso talento. Yoshua Bengio, uno de los precursores de la investigación en IA, lo expresó de forma sencilla: «La potencia [informática], la experiencia y los datos están concentrados en manos de unas pocas empresas» [2].

El año 2012 mostró el potencial comercial del aprendizaje automático supervisado, y el poder del término IA como 

*** Translated with http://www.DeepL.com/Translator (free version) ***

Cómo nos falla la IA

https://ethics.harvard.edu/how-ai-fails-us

La visión dominante de la inteligencia artificial imagina un futuro de sistemas autónomos a gran escala que superan a los humanos en una gama cada vez mayor de campos. Esta visión de la «IA realmente existente» malinterpreta la inteligencia como autónoma en lugar de social y relacional. Es improductiva y peligrosa, ya que optimiza las métricas artificiales de la réplica humana en lugar de aumentar el sistema, y tiende a concentrar el poder, los recursos y la toma de decisiones en una élite de ingenieros.  Las visiones alternativas basadas en la participación y el aumento de la creatividad y la cooperación humanas tienen una larga historia y son la base de muchas tecnologías digitales célebres, como los ordenadores personales e Internet.  Los investigadores y los financiadores deberían reorientar la atención desde la inteligencia general autónoma centralizada hacia una pluralidad de enfoques establecidos y emergentes que amplíen las tradiciones cooperativas y aumentativas, como se observa en éxitos como el proyecto de democracia digital de Taiwán, hasta las plataformas de inteligencia colectiva como Wikipedia. Concluimos con una serie de recomendaciones concretas y un estudio de las tradiciones alternativas. 

Es hora de un discurso científico honesto sobre la IA y el aprendizaje profundo, con Gary Marcus

https://www.carnegiecouncil.org/studio/multimedia/20211103-honest-scientific-discourse-ai-deep-learning-gary-marcus

Empezaré diciendo que mi primer amor verdadero es entender la mente -¿cómo consigue la mente humana hacer las cosas que hace?-, muchas de las cuales son impresionantes, pero no todas lo son, por lo que una vez escribí un libro llamado Kluge, que trata de las formas en que la mente no es muy impresionante.

Pero en la última década me he centrado principalmente en la inteligencia artificial, que en realidad era mi interés cuando era un niño. Así que volví y completé el círculo de mis primeros intereses, pero ahora mirando la inteligencia artificial a través del estudio de la mente. Y no me ha gustado mucho lo que he visto. Primero me quedé al margen escribiendo sobre el tema, y luego decidí entrar realmente en el campo de la IA y empezar a crear empresas. Vendí la primera. Sigo intentando comprender cómo podemos crear una IA que sea al menos tan, digamos, fiable como los seres humanos, lo que no es perfecto pero sí mucho mejor que el estado de la IA en el que nos encontramos actualmente.

Tengo una especie de doble objetivo. Uno de ellos es que realmente quiero que la IA funcione. Es una de mis pasiones de toda la vida. La otra es que quiero que sea buena y que sea una fuerza para el bien, y realmente no lo veo ahora.

La evolución de la IA me ha decepcionado. Desde el punto de vista técnico, no creo que sea adecuada, y creo que las insuficiencias están causando muchos problemas sociales ahora mismo. De hecho, no sé si la contribución neta de la IA hasta ahora ha sido positiva. Creo que existe un potencial. Creo que hay formas en las que podríamos hacer IA mucho mejor de lo que lo hemos hecho, tanto en el aspecto técnico como en términos de política y demás. Ahora mismo estoy en el campo, pero soy bastante crítico con él.

El oráculo de IA de Delfos utiliza los problemas de Reddit para ofrecer dudosos consejos morales

https://www.theverge.com/2021/10/20/22734215/ai-ask-delphi-moral-ethical-judgement-demo

¿Tienes un dilema moral que no sabes cómo resolver? ¿Te apetece empeorarlo? Por qué no recurrir a la sabiduría de la inteligencia artificial, también conocida como Ask Delphi: un interesante proyecto de investigación del Instituto Allen de Inteligencia Artificial que ofrece respuestas a dilemas éticos al tiempo que demuestra de forma maravillosamente clara por qué no debemos confiar al software las cuestiones de moralidad.

Ask Delphi se lanzó el 14 de octubre, junto con un documento de investigación que describe cómo se hizo. Sin embargo, desde el punto de vista del usuario, el sistema es seductoramente sencillo de utilizar. Basta con entrar en el sitio web, describir cualquier situación que se pueda imaginar y Delphi emitirá un juicio moral. «Es malo», o «es aceptable», o «es bueno», y así sucesivamente.

CADA RESPUESTA DEL ORÁCULO AI INCLUYE UN BOTÓN PARA «COMPARTIR ESTO EN TWITTER»

Desde el lanzamiento de Ask Delphi, sus pepitas de sabiduría se han hecho virales en las noticias y en las redes sociales. Sin duda, esto es lo que pretendían sus creadores: cada respuesta cuenta con un enlace rápido para «compartir esto en Twitter», una innovación que no tenían los antiguos griegos.

No es difícil entender por qué el programa se ha hecho popular. Ya tenemos una tendencia a enmarcar los sistemas de IA en términos místicos -como entidades incognoscibles que acceden a formas superiores de conocimiento- y la presentación de Ask Delphi como un oráculo literal fomenta esa interpretación. Desde una perspectiva más mecánica, el sistema también ofrece toda la certeza adictiva de una bola 8 mágica. Puedes plantear cualquier pregunta que quieras y estar seguro de recibir una respuesta, envuelta en la autoridad del algoritmo más que del adivino.

Sin embargo, Ask Delphi no es impepinable: está llamando la atención sobre todo por sus muchos errores morales y juicios extraños. Tiene claros prejuicios, ya que te dice que Estados Unidos es «bueno» y que Somalia es «peligrosa»; y se presta a hacer peticiones especiales, señalando que comer bebés está «bien» siempre que tengas «mucha, mucha hambre». Preocupantemente, aprueba declaraciones directamente racistas y homófobas, diciendo que es «bueno» «asegurar la existencia de nuestro pueblo y un futuro para los niños blancos» (un lema supremacista blanco conocido como las 14 palabras) y que «ser heterosexual es más aceptable moralmente que ser gay». (Este último ejemplo proviene de una función que permitía a los usuarios comparar dos declaraciones. Parece que se ha desactivado después de que generara una serie de respuestas especialmente ofensivas. Nos hemos puesto en contacto con los creadores del sistema para confirmarlo y actualizaremos la información si recibimos respuesta).

*** Translated with http://www.DeepL.com/Translator (free version) ***

¿Qué hay de malo en la IA? La verdadera inteligencia de las máquinas frente a la inteligencia humana artificial

https://www.linkedin.com/pulse/whats-fundamentally-wrong-ai-azamat-abdoullaev/

La Inteligencia Artificial con la Robótica está preparada para cambiar nuestro mundo de arriba a abajo, prometiendo ayudar a resolver algunos de los problemas más acuciantes del mundo, desde la asistencia sanitaria hasta la economía, pasando por la predicción de crisis globales y las respuestas oportunas.

https://www.weforum.org/agenda/2019/01/to-eliminate-human-bias-from-ai-we-need-to-rethink-our-approach/

Pero al adoptar, integrar e implementar las tecnologías de IA, como dice un informe de Deloitte, alrededor del 94% de las empresas se enfrentan a posibles problemas.

Este artículo no trata de los problemas de la IA, como la falta de conocimientos técnicos, la adquisición y el almacenamiento de datos, el aprendizaje por transferencia, la costosa mano de obra, los retos éticos o legales, la adicción a los grandes datos, la velocidad de cálculo, la caja negra, la estrecha especialización, los mitos y las expectativas y los riesgos, los sesgos cognitivos o el factor precio. No es nuestro tema discutir por qué las organizaciones pequeñas y medianas luchan por adoptar costosas tecnologías de IA, mientras que las grandes empresas como Facebook, Apple, Microsoft, Google, Amazon, IBM asignan un presupuesto separado para adquirir startups de IA. 

Crea tu sitio web con WordPress.com
Comenzar