Cognición, inteligencia y el apocalipsis


El otro día tuve la suerte de acudir a la fantástica charla de Helena Matute (@HelenaMatute) sobre los aspectos psicológicos de la interacción entre humanos y robots. Si no pudiste verla, aquí puedes encontrar un extracto de la misma (se espera que se publique la charla completa en breve). Después de la charla, tuvimos una interesante discusión en Twitter sobre varios de los temas que aparecieron en la charla: cognición, inteligencia, aprendizaje…

Con esta entrada pretendo superar la frustración de los 140 caracteres y ofrecer algunas claves desde el punto de vista de la Inteligencia Artificial para que estas discusiones, lejos de terminar, puedan seguir estando muy vivas. Vamos allá.

El primer gran problema que suelo encontrar en estas discusiones es el uso de palabras y conceptos abstractos como cognición, inteligencia, aprendizaje, emociones y etc. Es muy díficil poder definirlos con exactitud, por lo que suele costar mucho ponerse de acuerdo sobre lo que se le exige a alguien o algo inteligente. Es por ello que he acudido a la Wikipedia a mirar cómo definen cognición

En principio la cognición (del latín: cognoscere, ‘conocer’) se define como la facultad de un ser vivo para procesar información a partir de la percepción, el conocimiento adquirido (experiencia) y características subjetivas que permiten valorar la información. Consiste en procesos tales como el aprendizajerazonamientoatenciónmemoria,resolución de problemastoma de decisiones y procesamiento del lenguaje.

En esta definición ya hay varias claves interesantes. Se habla de procesar información a partir de la percepción, la experiencia y características subjetivas. También se establece que la cognición engloba temas tales como el aprendizaje, razonamiento, atención, memoria etc. Cabe preguntarse si esas capacidades ya están en manos de las máquinas. Y la respuesta es que sí.

Cognición artificial

No voy a empezar a argumentar que cada uno de los aspectos que se mencionan en la definción de la cognición ya tienen su análogo artificial. Se necesitarían muchas entradas para hacerlo. De todas formas, sí quisiera comentar algunas, más que nada para intentar eliminar esa aureola de magia y misterio que siempre rodea al tema de la cognición, el pensamiento y la inteligencia.

Empecemos por el razonamiento. Hay varias formas de razonamiento, tales como razonamiento inductivo, deductivo o abductivo. Sin meternos en cada una de ellas, nosotros sabemos que las personas se mueren. Si alguien nos dice que Fulano es una persona, razonamos inmediatamente que Fulano es mortal. Este tipo de razonamientos han sido muy estudiados desde la antigua Grecia y fueron el primer caballo de batalla de la Inteligencia Artificial. Ni que decir que hoy en día, hay miles de formas de implementar sistemas artificiales de razonamiento.

Se habla también de resolución de problemas. El ejemplo que me suele gustar dar es el de jugar al ajedrez. Al jugar al ajedrez, en cada movimiento estamos resolviendo un problema, buscando la mejor solución a la situación en la que nos encontramos. Lo que estamos haciendo, al fin y al cabo, es buscar en un espacio de soluciones. Cada movimiento de cada pieza, es una solución, y todas ellas conforman el espacio de las soluciones. Tenemos que ser capaces de evaluar cada una de esas soluciones y tomar la mejor decisión. Obviamente, si lo hacemos uno a uno, tardaríamos infinito tiempo, ya que cada movimiento puede desencadenar millones de posibilidades, y eso crece de manera exponencial. Por eso, aplicamos heurísticos, que no son más que funciones que nos permiten acotar el espacio de búsqueda. Pues bien, esos algoritmos de búsqueda con heurísticos han sido implementados en muchas máquinas para muchos própositos diferentes. Como ejemplo, el algoritmo de búsqueda de caminos del coche de Google, que ya explicamos aquí.

Finalmente, un tema que me apasiona: el aprendizaje. Una vez más, un concepto abstracto con el que es difícil lidiar. Una de las cosas buenas de la ciencia respecto al lenguaje natural, es que intenta definir los conceptos de forma inequívoca. Cuando se habla de aprendizaje artificial o aprendizaje automático, normalmente se acude a la definición dada por Tom Mitchell. Viene a decir que un programa P aprende de la experiencia E respecto a una tarea T y una métrica de rendimiento R, si su rendimiento a la hora de ejecutar la tarea T, medido por R, mejora con la experiencia E. Claro y conciso, ¿verdad?

El aprendizaje automático hoy en día está ya muy extendido entre nosotros. Nuestro correo eléctronico hace uso de aprendizaje supervisado para distinguir entre correo spam y correo bueno. Facebook, etiqueta a personas detectando sus caras, usando de nuevo técnicas de aprendizaje supervisado. Los astrónomos recurren a técnicas de aprendizaje no-supervisado para analizar los millones y millones de imágenes que sacan sus telescopios y buscar galaxias, clusters, nebulosas y otras estructuras en esas imágenes. Vamos, que no hay nada mágico en el aprendizaje.

Bueno, me equivoco, detrás de todo esto está la magia de las matemáticas. El aprendizaje supervisado no es más que encontrar el (hiper-)plano que divide en un espacio multi-dimensional de características calculadas sobre imágenes u otras entradas, entre aquellos puntos que pertenecen a una clase (por ejemplo, cara) y los demás. El aprendizaje no-supervisado trata de agrupar puntos en un espacio de similitud, formando grupos de puntos que se parecen mucho.

Turing y el cambio de paradigma

Para enfocar mejor la discusión, que ya existía desde mediados del siglo pasado, fue Alan Turing el que planteó un cambio de paradigma. La gente no dejaba de preguntarse si las máquinas podrían llegar a pensar. Turing se dio cuenta de lo difícil que resultaba medir la capacidad de pensar, por lo que cambió la pregunta que debíamos hacernos: ¿pueden las máquinas hacer lo que hacemos nosotros?

Esto no es un truco semántico. La pregunta de Turing nos permite medir y comparar máquinas con seres vivos. Tomemos alguna tarea que un ser que consideramos inteligente pueda realizar. Elijamos la tarea que nosotros creamos que no sería capaz de realizar si no fuera inteligente. Bien, si alguna máquina es capaz de realizar esa misma tarea, debemos concluir que el proceso que le ha llevado a realizarla, contiene algun rasgo de inteligencia.

Cuando hablamos de tareas, nos referimos tanto a las físicas como navegar de un punto a otro o preparar la mesa para comer, como a las más mentales como reconocer caras, probar teoremas etc.

En esa línea va el famoso test de Turing. Seguramente la conoceréis como el test que propone a una persona mantener una convesación con alguien desconocido. La persona en cuestión no sabe si el que está hablando con él es otra persona o una máquina. En el caso de que sea una máquina, si al final de la conversación la persona no es capaz de adivinarlo, tenemos que concluir que la máquina es inteligente.

Natural VS artificial

Esta batalla entre lo natural y lo artificial es muy conocida en muchos campos. Como en esos muchos campos a los que me refiero, seguramente llegará el día en el que en el campo de la inteligencia también carecerá de sentido hablar de lo natural y lo artificial (es solo mi opinión).

De todas formas, hay corrientes que creen que la inteligencia artificial debe imitar la inteligencia natural. Esto, por si solo, no conlleva ningun problema. La cuestión es que mucha gente llega a la conclusión de que la inteligencia artificial solo podrá ser considerada inteligencia en tanto en cuanto copie nuestros procesos naturales. Esto contraviene el paradigma de Turing.

La inteligencia artificial ha demostrado poder realizar tareas inteligentes siguiendo caminos diferentes al nuestro. Esto no implica que no se deba intentar replicar nuestros procesos cognitivos, por dos grandes razones:

  1. Ello nos permitiría entender mucho mejor nuestros procesos cognitivos.
  2. Seríamos capaces de crear máquinas inteligentes, ya que nosotros, lo somos.

En este sentido, os recomiendo la lectura de esta entrada de Helena Matute sobre aprendizaje natural y artificial, la forma en la que se entrelazan y sacan provecho el uno del otro. En esa entrada se da con una de las claves de nuestra inteligencia: la rapidez de adaptarnos a nuevos contextos, con la capacidad de aprender con gran flexibilidad.

Ya en la charla Helena comentó que nuestros sesgos cognitivos son el precio a pagar por esa flexibilidad, que es clave a la hora de sobrevivir en un entorno como el nuestro. De allí, se concluía que si las máquinas implementaran esa flexibilidad, estarían abocadas a tener esos mismos sesgos cognitivos. Yo matizaría esta afirmación: si las máquinas implementan nuestros mismos procesos cognitivos para alcanzar esa flexibilidad, entonces tendrán nuestros mismos sesgos cognitivos. Pero, ¿no se puede alcanzar la misma flexibilidad con procesos diferentes?

más allá de la inteligencia humana

Por mucho que la tradición sitúa la inteligencia en nuestro encéfalo, aspectos como la percepción y la capacidad de acción moldean la inteligencia de forma definitiva. Es decir, nuestra inteligencia no sería la misma si en vez de ojos y visión, solo tuviéramos oídos. Todas estas herramientas han sido moldeadas por la evolución, a través de eones. El resultado es maravilloso.

Pero no nos engañemos: la evolución no es un buen ingeniero. Por mucho que nos maravillemos, nuestros ojos son soluciones parcheadas de ojos que se desarrollaron para entornos acuosos. Nuestra columna vertebral es otro parche para una solución bípeda que parte de una solución para animales de cuatro patas. La evolución no genera soluciones óptimas, solo soluciones aceptables. ¡Y no es poco!

Nosotros, en cambio, somos muy buenos ingenieros. Es verdad que los robots aun parecen torpes, limitados en sus tareas y en su flexibilidad y les cuesta realizar tareas que nosotros ya realizamos con 3 años. Pero nosotros somos fruto de millones y millones de años de evolución. La robótica y la inteligencia artificial nacieron ayer.

Sin embargo, con todos los avances que hemos realizado, ya se puede vislumbrar que las máquinas del futuro no solo nos van a igualar, sino que nos van a superar. En vez de ver solo la luz visible, podrán ver en infrarrojos o en cualquier otro lado del espectro. Podrán usar sensores activos como láseres y ultrasonidos, sacar provecho de toda la infraestructura TIC que hemos desarrollado con satélites, Internet, computación en la nube, grandes repositorios de datos etc. Podrán comunicarse entre ellos a una velocidad que nosotros no podemos.

Para muestra un botón: el proyecto RoboEarth. En él, varios grupos de investigación de Europa (entre ellos la Universidad de Zaragoza), han desarrollado el Internet de los robots. Cuando un robot aprende a realizar una tarea, lo sube a un repositorio común, donde se especifican los modelos para reconocer objetos, los pasos a dar para completar esa tarea, las capacidades que se necesitan, aspectos importantes del entorno etc. Otro robot, en otra parte del mundo, con un cuerpo y capacidades diferentes, es capaz de bajarse toda esa información cuando se encuentre ante la necesidad de realizar esa misma tarea. Si durante la realización de esa tarea aprende y descubre algo nuevo, lo comparte, mejorando/completando el conocimiento del repositorio común. Es algo parecido a lo que hacían en Matrix para aprender a conducir un helicóptero, ¿verdad? Pero con robots.

Otro ejemplo: Watson de IBM. Capaz de entender el lenaguaje natural y aprender de la interacción con los humanos. Ya está aprendiendo aspectos relativos a la medicina y la fisiología humana. Propone diagnósticos y tratamientos basándose en su conocimiento enciclopédico, al que un humano no puede aspirar. Pero también está aprendiendo de finanzas. ¡Ojocuidao!

Todos estos ejemplos son todavía prototipos. Puede que en aspectos generales no estén a nuestra altura: no son tan inteligentes como nosotros. Pero es cuestión de tiempo. Como bien dijo Helena al final de su charla, estos robots, estas máquinas inteligentes, van a llegar. No se sabe cuando, pero van a llegar. Nos corresponde a nosotros decidir cómo queremos que sean. Y no deberíamos esperar mucho tiempo para empezar a decidirlo.

 

21 Respuestas a “Cognición, inteligencia y el apocalipsis

  1. Pingback: Helena Matute: “Sería un error pensar que los robots van a limitarse a tareas rutinarias.” | Conferencia | Cuaderno de Cultura Científica

  2. Pingback: Ciencia Ficción, Robótica e Inteligencia Artificial | Meditaciones Dactilares

  3. Pingback: Bitacoras.com

  4. Pingback: Cognición, inteligencia y el apocalipsis...

  5. En primer lugar: gran artículo y muy interesante.

    Creo que a pesar de todo sigue siendo necesario definir mejor lo que consideramos inteligencia, y la relacion de esta con la libertad. Yo al menos entiendo que la autentica inteligencia esta ligada a la libertad, y que cualquier otra cosa que funcione mediante un programa, por complejo que sea, no es realmente inteligente, si no que nos lo parece. Así no estoy de acuerdo en que un robot capaz de engañarnos hablando se pueda considerar plenamente inteligente. Aunque si muy inteligente, o dicho de otra forma, tan complejo que nos parece inteligente. Entiendo que se podria alegar que antes hay que ver si los humanos somos realmente libres, y yo creo, sin entrar en temas cuanticos que habra que estudiar a medida que avance la fisica, que precisamente nosotros podemos, sin estar programados para ello, saltarnos nuestro programa mas basico que implica la supervivencia propia y de la especie, con el unico fin por ejemplo de demostrar esto mismo. Personalmente, si que creo que somos libres, y que en realidad la fisica cuantica nada tiene que ver en ello, pero habra que esperar a que se vaya sabiendo más sobre todo ello, lo cual supongo que es cuestión de tiempo.

  6. Pingback: Enlaces Recomendados de la Semana (Nº257) | netgueko

  7. Coincido en muchas cosas, especialmente en el problema de las definiciones y el contexto en el que se usan, pero discrepo en otras.

    Por ejemplo la idea de razonamiento y resolución de problemas. Según la definición de Turing, que me imagino es en la que te basas, sí que técnicamente lo harían, pero esa definición ya ha sido discutida por muchos filósofos e investigadores y creo que está superada. Hacer no es lo mismo que ser. Un avión vuela pero no es un pájaro. De la misma forma, la IA encuentra soluciones pero no razona ni resuelve problemas.

    No podemos quedarnos con la idea general de que resolver un problema es encontrar una solución, el como también es importante, y los humanos usamos la lógica, experiencia y pensamiento abstracto, mientras que la IA usa la fuerza bruta para generar todas las posibles soluciones y encontrar la óptima. De la misma forma que Newton-Raphson no es inteligente solo por encontrar soluciones a ecuaciones que nosotros no sabemos resolver, A* o cualquier otro método de búsqueda tampoco es inteligencia en un sentido general.

    Un comentario menor, no todo el aprendizaje supervisado es clasificación. También hay regresión y clasificación Bayesiana, o aprendizaje reforzado. La diferencia entre supervisado y no-supervisado está en si los datos están etiquetados o no.

    • No comparto tu opinión sobre el tema del razonamiento. La IA no usa la fuerza bruta para buscar soluciones óptimas, por que generalmente es inviable. Algoritmos como A* usan heurísticos justamente para reducir el espacio de soluciones. Nosotros, cuando buscamos una solución hacemos algo parecido. Los heurísticos implican conocimiento previo del dominio, que es lo que aplicamos en la búsqueda de soluciones. Por cierto, la IA también usa la lógica (lógica de predicados, lógica probabilística, lógica difusa…), pensamiento abstracto (ontologías, lógica descriptiva) y la experiencia (conocimiento previo, aprendizaje…). De todas formas, cuando afirmas que las máquinas no pueden razonar, ¿a qué clase de razonamientos te refieres?

      En lo del aprendizaje tienes razón, pero no quería profundizar más en el tema. Lo reservo para otras entradas, ya que hay mucha tela que cortar.

      En lo general, entiendo que tu tesis es que una máquina solo puede ser considerada inteligente si replica nuestros procesos cognitivos, ¿verdad? Yo no estoy de acuerdo. Tal y como intento explicar en la entrada, hay varias formas de ser inteligente. La inteligencia, en mi opinión, se expresa en el comportamiento. Y eso se puede medir. Por lo que si una máquina se comporta de forma inteligente, para mí debería considerarse inteligente.

  8. Pingback: Cognición, inteligencia y el apocalipsis...

  9. Por cierto, se me olvidó comentar que lo que más me escama de los agoreros del levantamiento de las máquinas, es esa teoría de que solo por el aumento de la potencia del cálculo del hardware, o de las conexiones y la velocidad de las redes de ordenadores, la consciencia y la inteligencia vendrá por sí sola. No puedo entender ese razonamiento.

  10. Supongo que estaré invitado al debate ;).
    Estoy de acuerdo con Gorka en prácticamente todo, ahora bien, no estoy tan seguro si alguna vez nos llegarán a superar en todos los aspectos, está claro que en muchos ya nos han superado (mi navegador es mucho mejor que yo planeando rutas).

    Con respecto a las tesis de Helena Matute, me parece muy interesantes (sobre todo por desconocidas para mi). Es posible que tenga razón en que esos sesgos cognitivos sean los que nos permiten tener la flexibilidad de adaptación que tenemos los humanos, pero es precisamente esta capacidad la que nos hace insuperables (¿También seran conscientes de estos sesgos los super-robots?), y somos totalmente conscientes de que esos sesgos existen y que muchas veces nos juegan malas pasadas. Con lo que la solución al apocalipsis robótico sea mantener los libros que utilizan los magos lejos del alcance de estos, los magos utilizan multitud de trucos que utilizan esos sesgos, así como nuestros defectos visuales. Lo mismo podríamos hacer con respecto a los supuestos robots super-inteligentes.

    Aunque nuestra capacidad de adaptación también es debida a que somos capaces de crear teorías sobre algo que nos es completamente desconocido. Podemos pensar, esto funcionará así, si después funciona así (puede que nos engañemos) nos habrá servido, si no seremos capaces de intentar predecir otra salida o solución a un problema totalmente distinto, incluso poniéndonos en riesgo si fuese necesario para salir de alguna situación en concreto. (Hablo de pura supervivencia, aunque también es aplicable a cosas más triviales), y la verdad que en este momento no veo cómo un ordenador sería capaz de esto.

    Si bien me parece acertada el acercamiento al problema de la inteligencia desde el punto de vista ingenieril, como del punto de vista psicológico, creo firmemente que es muy pronto para plantearse problemas éticos y discusiones de este tipo, no está mal ir teniéndolos en la recámara, pero plantearlo abiertamente creo que es contraproducente ya que la sociedad puede pensar, como lleva pensando mucho tiempo, que los replicantes de blade-runner están a la vuelta de la esquina (con la consiguiente alarma social), y sabemos que esto es un chiste en con el estado actual de la inteligencia artificial. Que los robots muestren emociones, o distintas personalidad, hoy en día no es más que un módulo más en una capa de aplicación de un chat-robot, que si bien puede ser muy interesante y útil para que las personas interaccionen con el robot de un modo más sencillo y cercano, no hay nada parecido a la consciencia en este tipo de comportamientos aunque lo quieran emular.

    Para tener un robot comparable a nosotros necesitaríamos, a varios Watson (cada uno para un cometido, imagina que eres un buen médico capaz de diagnosticar como House, pero además sigues siendo capaz de ganar el concurso que ganó) lo que implica una capacidad de cómputo brutal, y muchos ordenadores, a esto añadelé, motores, sensores, y todos los algoritmos para rutas, detección de obstaculos, etc, etc. Estamos muy lejos de algo así.

    Enhorabuena por la entrada y seguimos debatiendo.

    • Por supuesto que estás invitado a discutir! Una entrada mía sin tus comentarios queda sosa 😉 Un par de matices. El comentario que has hecho de la capacidad de afrontar nuevos problemas mediante hipótesis, prueba y validación, he de decir que ya he visto robots que aprenden propiedades cinemáticas y mecánicas de objetos articulados con ese método. Por lo que se está trabajando también en esos aspectos.

      Por lo demás, coincido contigo en que todavía estamos lejos de tener máquinas completas en cuanto a cognición, pero estamos resolvieno el puzzle poco a poco.

      Gracias por tus comentarios!

  11. Si las máquinas implementaran nuestros sesgos cognitivos, hábitos y prejuicios, no tendrían utilidad como herramientas que necesitamos para obtener ventaja mecánica, de cálculo, de lógica, y de memoria.

    Pienso que nuestras máquinas no poseerán consciencia (no pueden filosofar), ya que estas cualidades de alguna manera tienen que ver con el instinto de supervivencia, que es quien dirige y escribe todos nuestros softwares cerebrales.

    Y en lo que se refiere al tipo de inteligencia (reconocer y reproducir patrones) que implican supercálculo secuencial y habilidades exageradas de memoria; ahí nuestras máquinas nos superan, incluso a los savants; ese es su nicho; pero eso no era útil para nuestra supervivencia que necesitara toda nuestra capacidad cerebral.

    • Hola Solrac! Conozco muchas aplicaciones en las que una inteligencia muy pareja a la nuestra (con sus pros y sus contras), nos vendría muy bien. Hay muchas tareas que los humanos realizamos perfectamente, pero que son repetitivas, poco saludables y/o peligrosas. Allí hay un nicho importante para máquinas muy parecidas a nosotros.

      Respecto a lo que comentas del insitinto de superviviencia, si quisiéramos podríamos hasta simularlo. El interés científico es indudable. El interés social… eso ya no lo sé…

      • Las máquinas en sus especialidades son más inteligentes que nosotros, así como un perro o un águila tienen mejores sensores olfativos o visuales que nosotros; pero replicar los sesgos cognitivos de nuestro cerebro, no le veo utilidad que no sea para el camuflaje y el espionaje; o quizá para lo mismo que lo hace nuestro cerebro: para ahorrar energía, tiempo y memoria que se deben repartir con otras funciones de supervivencia.

        Igual algunas funciones del instinto de supervivencia se pueden programar (los virus informáticos y las máquinas que aprenden poseen algunas), pero la consciencia es una sinergia de funciones mucho más complejo que eso; No creo que con tecnología electrónica a base de semiconductores e informática booleana, se haga factible (¿incompletitud de Godel?). Siempre será más económico transferirles la nuestra.

  12. Pingback: Cognición, inteligencia y el apocalipsis

  13. Antonio (AKA "Un físico")

    Gorka, hace años también me hice las mismas preguntas que tú en esta entrada. Pero mis conclusiones no fueron las mismas.
    En: https://docs.google.com/file/d/0B4r_7eooq1u2ODExMmFhNzEtMjBlYS00NWNmLTkzZDYtYTE0ZTEwMWFhMjk1/
    en el 1er párrafo de la página 4 (y los párrafos anteriores), puedes ver que la argumentación gödeliana impide todas esas elucubraciones que al parecer compartís tú y la señora Matute.
    Saludos.
    Antonio.

    • Gracias por el documento que compartes! Lo leeré con atención, pero en principio me cuesta entender cómo la conjetura de Gödel puede llevarnos a tales conclusiones. Yo sigo ciñiéndome al paradigma de Turing, que me parece el más pragmático para seguir avanzando en este camino. Todos los temas del libre albedrío, del yo… me parecen muy discutibles. Creo que el corto camino que ya ha trazado la Inteligencia Artificial nos señala la posibilidad real de crear máquinas que puedan desempeñar las mismas tareas que nosotros, incluso superarnos en muchos aspectos. Y repito, no tenemos por qué generar una réplica humana para que una máquina sea inteligente.

      • Antonio (AKA "Un físico")

        Gorka, ese nuevo argumento de Penrose da hasta para una tesis doctoral. Mira por ejemplo el punto 4 «No computabilidad en el pensamiento matemático» del cap. 4 (desde pg. 72/133) en:

        Haz clic para acceder a Herce_Fern%C3%A1ndez.pdf

        Yo no comparto todas las ideas de Penrose, pero su argumentación gödeliana, en especial en lo referente a la IA vs. la consciencia, hay que tenerla en cuenta.

  14. Hola Gazkune

    Hay ciertas cuestiones al respecto que quiero remarcar

    No sabemos a que nivel de complejidad mental, el Robot no permitirá que lo apaguemos

    Muchos de nuestros procesos se elaboran a partir de sueños, nadie siquiera imagina como hacer soñar a un Robot y que saldría de ahí, de lograrlo

    Tampoco tenemos ideas de cuantas de nuestras acciones se deben a nuestros instintos, porque no sabemos a ciencia cierta cuantos y cuales tenemos y con que intensidad se manifiestan, Los Robots no tienen instintos ni parece probable que los puedan llegar a tener

    No parece sensato tratar de replicarnos en máquinas, somos seres violentos, y tampoco sabemos bien porque lo somos ; Si nos copiamos fielmente, tendremos Robots violentos

    La vida es violenta, el motivo esencial parece ser ¨el Yo¨, no importa si somos vegetales o animales ; No tenemos la menor idea de cuando le podría aparecer el Yo a los Robots

    La piedad nos contiene, ¿podremos hacer piadosos a los Robots?

    Parece ser más razonable hacer Robots limitados a una especialización, el enciclopedismo es para los humanos, la especialización para los insectos ; Ahora también para los Robots.

    Pasados los momentos de furor por la novedad de disponer de Robots con inteligencia superior, humanos y Robots, no podremos convivir.

    Somos la especie dominante sin desafiantes a la vista, ¿que sentido tendría fabricarnos uno?.

    Sin embargo, va a pasar y habrá consecuencias.

    ♣ Rubén Ardosain ♣

    • Gracias por el comentario! En principio, no veo ningún problema a poder implementar procesos similares a los sueños o a los instintos. La cuestión es que si llegamos a comprender cómo funcionan (y lo conseguiremos), creo que llegaremos también a implementarlos. De todas formas, quisiera insistir en que nadie ha demostrado que la única forma de crear seres inteligentes sea la de replicar humanos y animales. Por lo tanto, no necesariamente tenemos que centrarnos en nuestros procesos cognitivos.
      Las reflexiones que haces sobre qué tipo de máquinas deberíamos crear, son reflexiones que creo le corresponden hacer a toda la humanidad en conjunto. En mi opinión, esos temas ya están fuera de la ciencia y la investigación. Supongo que como otras muchas veces, la ciencia irá muy por delante de la sociedad, y las consecuencias se harán notar.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s