Me gusta

lunes, 18 de junio de 2018

Humanos y máquinas

Científicos afirman que la inteligencia de la humanidad está disminuyendo (y revelan el porqué)
Publicado: 13 jun 2018
El estudio analizó pruebas de coeficiente intelectual de alrededor de 730.000 jóvenes noruegos entre los años 1970-2009. Una investigación independiente en Reino Unido arrojó similares resultados.
Foto ilustrativa
unsplash.com
Un grupo de investigadores noruegos afirma que el nivel de inteligencia de la humanidad está disminuyendo en las últimas décadas debido a  transformaciones medioambientales y a un cambio en el estilo de vida de las personas, según un artículo publicado este lunes en la revista científica estadounidense Proceedings of the National Academy of Sciences (PNAS, por sus siglas en inglés).
Al decir de estos científicos, los resultados de pruebas de coeficiente intelectual (CI) aplicadas a cerca de 730.000 jóvenes noruegos en edad de cumplir el servicio militar obligatorio y efectuadas a lo largo de varias décadas, entre 1970 y 2009, muestran que se ha producido una disminución en el nivel de inteligencia.
Este dato contrasta con el llamado efecto Flynn, nombre con el cual se designó un alza continua del CI sucedida durante la primera mitad del siglo XX y supuestamente de manera global, que según diversas teorías pudo deberse a una mejora sustancial de factores tales como la nutrición, la salud o la educación.
Ahora, según las conclusiones del nuevo estudio, el coeficiente intelectual de la humanidad no solo se ha estancado en las últimas décadas, sino que ha disminuido un promedio de 7 puntos por generación a causa de alteraciones en el medioambiente y cambios en el estilo de vida de las personas, aseguran los autores de dicha investigación.
Esos datos parecen ser refrendados por otra investigación, llevada a cabo en Reino Unido, que escudriñó en el CI de los británicos y determinó que ha disminuido entre 2,5 y 4,3 puntos desde 1945.


El día en que las máquinas puedan elegir: la paradoja del libre albedrío en robots
 
Año 2043. Reino Unido es el último reducto de la WCC (Western Countries Confederation) en Europa, ante el imparable avance del DAESH. Un dron de exploración británico realiza un barrido por las orillas del Támesis. Con su sensor térmico detecta el avance de un grupo de soldados enemigos. Analiza y evalúa: diecisiete soldados, todos hombres (sabe eso debido a que analiza la forma de caminar, y la complexión y proporciones corporales), armados con armamento ligero y un lanzagranadas.
En milisegundos, manda las coordenadas del objetivo a otro dron, esta vez a un bombardero X-54, quien, de nuevo en otros pocos milisegundos, lanzará una lluvia de misiles sobre los desdichados soldados Sin embargo, los sensores del dron de exploración detectan nuevos enemigos. Entre las ruinas de lo que antes fue la abadía de Westminster, avanzan cuatro blindados autónomos de clase T-95. Son un objetivo estratégicamente muy jugoso (cada tanque de este tipo le cuesta al DAESH unos dos millones de dólares), mucho más interesante que el grupo de soldados.
Pero hay un problema. Los estrategas del DAESH descubrieron que había un tipo de blindaje para sus carros de combate, mucho más efectivo que el usual blindaje reactivo: el antiguo escudo humano. El objetivo era confundir la inteligencia artificial de las armas autónomas enemigas o, como mínimo, retrasar sus decisiones.
El cerebro positrónico de un dron de la WCC tomaba decisiones siguiendo a rajatabla la Convención de Massachusetts de 2036, en la que 136 países aprobaron un código ético mundial para armas autónomas, conocido popularmente como BH (el Bushido de HAL).
Según este código, un arma autónoma siempre evitará el mayor número de víctimas humanas posibles, por lo que a la hora de elegir el objetivo para un ataque, siempre elegirá a otra arma autónoma antes que a un grupo de soldados. La táctica del DAESH consistía en atar a unos cuantos prisioneros, si pueden ser civiles mejor, a lo largo de la carrocería de sus tanques.
Entonces el dron tenía dos opciones:
  1. Dirigir los misiles hacia el grupo de diecisiete soldados. Todo correcto a nivel ético y legal: se mata a personas pero son soldados enemigos ocupando territorio soberano.
  2. Dirigir los misiles hacia los T-95. Se ocasionarían víctimas humanas del propio bando, generando intencionalmente daños colaterales y, por lo tanto, violando claramente el BH. Sin embargo, eliminar esos carros enemigos supondría una ventaja decisiva en la batalla que, casi con total probabilidad, evitaría más muertes que ocasionaría.
¿Qué hacer? ¿Violar tu propio código ético, o ser práctico y ganar la batalla haciendo, quizá, un mal menor? El dron piensa y actúa: los blindados enemigos son destruidos. Los programadores de la empresa Deep Mind encargados de diseñar el cerebro computerizado de la máquina dejaron una puerta trasera mediante la que los compradores podían reprogramar la conducta de su arma a su antojo.

Los oficiales del ejército británico lo tuvieron claro: ganar la batalla era lo primero y unas cuantas bajas humanas, incluso de civiles, se justificaban en función de intereses estratégicos superiores.La Batalla de Londres se venció e, igualmente que le pasó a Hitler justo un siglo antes, la invasión de Gran Bretaña fue un fracaso. El DAESH y la WCC llegaron a un armisticio temporal. Todo pareció salir bien hasta que se descubrió que uno de los fallecidos utilizados como escudos humanos era la hija de Walter Smithson, un influyente multimillonario, dueño de una de las cadenas de restaurantes más importantes del mundo. El 2 de junio de 2044 interpuso una demanda al ejército británico por la acción de su dron.
Legalmente la demanda era totalmente correcta: el dron había desobedecido la Convención de Massachusetts ocasionando bajas civiles. Correcto pero, ¿quién era el responsable de la acción? Los ingenieros de Deep Mind se lavaron las manos: ellos habían programado el dron para no desobedecer la ley. Si el ejército inglés lo había reprogramado para hacerlo, no era culpa suya.
Todas las miradas apuntaron entonces al general Pierce Montgomery, responsable de armas autónomas del ejército de su Majestad. Pero, cuando todo indicaba que el laureado militar pagaría el pato, sus abogados utilizaron una sorprenderse estrategia: alegaron que el auténtico responsable era el dron, ya que había decidido atacar a los civiles con total y absoluto libre albedrío.
¿Qué es el libre albedrío?
 
Definición de andar por casa: si nos encontramos ante la decisión de tener que elegir entre A o B, podemos elegir A o B sin que nada ni nadie nos obligue a hacerlo. La vamos desgranando: ¿qué quiere decir que algo o alguien nos obligue? Que alguien nos obligue lo entendemos muy bien (alguien apuntándome con una pistola), pero que “algo” nos obligue, ¿qué significa?
Un ejemplo: yo vuelvo a mi casa a las tres de la mañana y quiero abrir la puerta. Estoy completamente borracho por lo que no atino a meter la llave por la cerradura. Yo quiero, deseo con toda mi alma abrir la puerta, pero algo, en este caso la insalubre cantidad de etanol que fluye por mis venas y atonta mi cerebro, me impide realizar la acción que yo quiero hacer. En este caso, el alcohol es lo que llamamos un condicionante: algo que nos obliga, o como mínimo inclina, a obrar de una determinada manera.
Es por eso que, en un juicio, los condicionantes se convierten en atenuantes. Los abogados de un presunto criminal aducen multitud de condicionantes para restar responsabilidad a las fechorías de su cliente. Un crimen cometido con premeditación y alevosía (es decir, con plena y total libertad) es castigado mucho más gravemente que otro que se cometiera bajo los efectos del alcohol o con la salud mental dañada (por eso los abogados de las películas alegan tanto la locura transitoria).
Grandes filósofos como Rousseau o Kant, entendían la libertad como autonomía, es decir, como darse normas a uno mismo, siempre que esas normas fueran fruto de una decisión racional
Incluso, los crímenes pasionales son, igualmente, menos castigados que los cometidos a sangre fría, arguyendo que las emociones ofuscan o confunden nuestro libre albedrío y nos empujan a hacer actos que, en estado normal, no haríamos. Las emociones se consideran también condicionantes. Desde los antiguos griegos, un imperativo vital ha sido siempre no dejarse llevar por las emociones, controlarlas.
Actuar libremente, no consiste en actuar guiándote ni por altos o bajos instintos (pasiones) ni por ningún otro condicionante (cualquier tipo de estado mental alterado) ¿Qué es entonces lo que impulsa a actuar libremente? Una de las instancias más repetidas por la tradición occidental ha sido la razón práctica o deliberativa. Tenemos una facultad mental que nos permite decidir entre A y B. Los condicionantes pueden influirla pero, en último término, es ella la que elige.
Grandes filósofos como Rousseau o Kant, entendían la libertad como autonomía, es decir, como darse normas a uno mismo, siempre que esas normas fueran fruto de una decisión racional, es decir, hubieran sido meditadas por nuestra razón práctica. Si yo decido escoger A porque, después de pensarlo muy bien, creo que escoger A es lo mejor que puedo hacer, estaré obrando libremente. Perfecto, pero aquí hay un grave problema ¿De dónde surgen las razones mediante las cuales yo guío mi acción libre? ¿Elijo mis pensamientos, mis razonamientos, las creencias que me orientan en mi vida? Parece que no.
El psicólogo norteamericano Daniel Wegner nos invita a hacer un simplísimo juego para demostrarlo: intentad no pensar en un oso blanco. Es difícil, tarde o temprano el oso blanco volverá a emerger a nuestra memoria consciente por mucho que intentemos no pensar en él. En internet había una versión del juego llamado, con suma originalidad, the game, que consistía, precisamente, en intentar no pensar nunca en el propio juego. Lo divertido es que el ganador sería aquel que consiguiera olvidar que estaba jugando y, en cuanto a tal, jamás sabría que había ganado.
El filósofo holandés Baruch Spinoza argumentaba que el libre albedrío es solo una ilusión ocasionada por nuestro limitado entendimiento a la hora de conocer las causas de nuestra conducta
Entonces, si no elijo mis pensamientos y deseos y éstos determinan mis acciones, yo no elijo mis acciones… ¡No soy libre! Pero, ¿cómo es posible? ¡Yo siento que soy libre! Ahora mismo pienso en mover mi brazo y lo muevo… ¿cómo podríamos decir que yo no lo estoy moviendo libremente? Porque el libre albedrío es una ilusión.
Baruch Spinoza (1632-1677)
El filósofo holandés Baruch Spinoza argumentaba que el libre albedrío es solo una ilusión ocasionada por nuestro limitado entendimiento a la hora de conocer las causas de nuestra conducta. Vamos a entenderlo con un ejemplo:
Juan asesina a su mujer disparándole con un revolver ¿Cuál fue la causa?
  • Causa 1: Juan encuentra a su mujer en la cama con un amante, por lo que decide libremente apretar el gatillo.
  • Causa 2: Luisa, la mujer de Juan, arriesgó mucho al pensar que Juan no volvería hoy del trabajo tan pronto. Si hubiese sido más prudente Juan no la hubiera descubierto con su amante.
  • Causa 3: Manuel, el jefe de Juan, se encuentra de buen humor porque el Getafe, su equipo de fútbol favorito, ha ganado hoy. Por eso deja salir a Juan una hora antes del trabajo.
  • Causa 4: Martín, el entrenador del Getafe, decidió sacar en el segundo tiempo a un prometedor jugador de la cantera con el que habitualmente no cuenta. Ese jugador, al borde del minuto 90, metió el gol de la victoria.
  • Causa 5: Eloy, promesa de la cantera del Getafe, estuvo a punto de abandonar su carrera futbolística debido a que no contaba para nada para los diversos entrenadores que habían pasado por el equipo. Sin embargo, su padre habló con él y le convenció para que no abandonará.
  • Causa 6: Marcos, el padre de Eloy, quiso también ser futbolista profesional. Sin embargo, dejó muy pronto su carrera deportiva porque le ofrecieron un trabajo muy bien pagado en una emergente empresa de informática llamada Apple. Siempre se arrepintió de haber dejado el fútbol, por lo que siempre animará a su hijo a que continúe.
Recapitulamos. Si cualquiera de estas causas no se hubiera dado, es muy probable que Juan no hubiese asesinado a su mujer. Todas estas causas están encadenadas como piezas de dominó, de modo que una es condición para la siguiente (es un ejemplo del conocido efecto mariposa) pero podemos hablar de más condiciones aún:
  • Causa 7: Pedro, el dueño de la armería, pospuso sus vacaciones una semana más, por lo que Juan pudo comprar su revólver al no encontrar la armería cerrada.
  • Causa 8: Carlos, el amante de Luisa, chocó accidentalmente con ella cuando caminaba distraído mirando los cuadros de un museo. Sin ese choque jamás se hubieran conocido.
Incluso podemos irnos a condiciones más lejanas, pero, igualmente, necesarias para que ocurriera el crimen:
  • Causa 9: los chinos inventan la pólvora y múltiples desarrollos tecnológicos van perfeccionando su uso hasta llegar al revólver a principios del Siglo XIX. Sin todo ese progreso, Juan no hubiera podido usar esa arma.
Y, más lejos aún, podemos llegar a causas que hunden sus raíces en la física más elemental:
  • Causa 10: el oxígeno es necesario como comburente para que la pólvora explote y se produzca el disparo del revólver. Sin oxígeno en la atmósfera, jamás se podría haber disparado revólver alguno y, es más, la especie humana no existiría y la vida en la Tierra sería muy diferente a como es ahora.
Tenemos diez condiciones necesarias para que sucediera el asesinato, pero, como bien podría hacer el lector como ejercicio de creatividad narrativa, con un poco de imaginación podríamos pensar una infinitud más (formando lo que en términos técnicos se llama nube causal). Sin embargo, decimos que el auténtico causante es, únicamente, el libre albedrío de Juan. A nadie se le ocurriría pensar que el culpable fuera el entrenador del Getafe, el dueño de la armería, los directivos de Apple o, más disparatado aún… ¡el oxígeno!
¿Por qué decimos que fue Juan? Spinoza lo tenía muy claro: es imposible conocer todas las causas que tuvieron algo que ver con el crimen por lo que, simplificamos a lo bestia con nuestros estúpidos cerebros de primate, y seleccionamos solamente una causa: el yo libre de Juan.
¿Sucesos aleatorios?

El universo está gobernado por una serie de leyes naturales que, hasta ahora que sepamos, siempre se han mantenido estables desde los orígenes de todo. Algunas de ellas, las más poderosas, son deterministas, es decir, se cumplen siempre y en todo lugar, siendo imposible violarlas (por ejemplo, la gravedad). Otras, sin embargo, son probabilísticas o estocásticas, es decir, que solo se cumplen con un determinado grado de probabilidad (por ejemplo, fumar provoca cáncer de pulmón).
Si todo lo que dirige nuestras vidas estuviese regido por leyes deterministas no habría lugar para el libre albedrío: tomaríamos nuestras decisiones de un modo tan obligatorio como el de una pelota cayendo hacia el suelo. Sin embargo, algunos han visto en las leyes probabilistas una vía de escape.
Si nuestro cerebro no es una máquina determinista, sino que en su funcionamiento participan procesos estocásticos, es posible que allí esté nuestra libertad, en el azar, en la aleatoriedad. Pero, ¿existen realmente sucesos aleatorios? En el mundo a escala humana, parece que no, pero en el mundo cuántico, algunos físicos nos dicen que sí (y otros que no).
Si nuestro cerebro no es una máquina determinista, sino que en su funcionamiento participan procesos estocásticos, es posible que allí esté nuestra libertad, en el azar, en la aleatoriedad.
¿Qué es un suceso aleatorio? Aquel que ocurre sin una causa que lo determine de modo que, incluso conociendo todas las variables que se dan en el proceso, sea imposible predecir su comportamiento. En este sentido, un suceso aleatorio podría parecerse mucho a un acto libre ya que, igualmente, el acto libre necesita no tener una causa que lo determine, necesita ser una causa sin causa o incausada.
¿Es entonces un suceso aleatorio un acto libre? Lo sentimos, pero no. Que algo sea aleatorio solo implica dos cosas:
  1. Que, aceptando la verdadera aleatoriedad cuántica, sucede sin causa alguna, sin nada que determine su conducta. Pero eso no implica que sea fruto de una decisión libre. Aceptando que el lanzamiento de una moneda es un acto realmente aleatorio, la moneda no toma ninguna decisión, no delibera ni planifica ni desea hacer nada siguiendo un propósito. La moneda no es libre de elegir cara ni cruz.
  2. Que, realmente, lo único que pase es que no somos capaces de predecir su comportamiento debido a nuestras limitaciones observacionales o cognitivas, y que el suceso sea, en último término, tan determinista como cualquier otro. Estaríamos de nuevo ante la ignorancia de Spinoza: que desconozcamos las causas de un suceso no implica que éste obre libremente.
No amigos, por la aleatoriedad no llegamos a la libertad. Y es que para que una acción sea libre necesitamos no que no esté determinada por nada sino que esté determinada por nuestra voluntad, por nuestras preferencias, valores, deseos… y los actos aleatorios, evidentemente, no lo están.
¿El Yo como fuente de libertad?
Para que un acto sea libre tendremos que tener un Yo, una instancia que, realmente decida. Precisamente, el argumento actual más en contra de que las máquinas son libres es que no tienen un Yo, no tienen a nadie que decida en última instancia, solo siguen a rajatabla su programa, sin poder violarlo jamás.
¿Y qué es el Yo? Pregunta complicada donde las hubiere. Muchos lo han identificado con ciertos estados o fenómenos propios de nuestra mente: nuestra consciencia, nuestro “espacio interior” o subjetividad, nuestra sentience (capacidad de tener sensaciones), o ya, en términos religiosos, nuestra alma o espíritu.
Sin embargo, la neurología moderna ha ido poniendo en jaque esta idea de Yo:
  1. El Yo no puede observarse de ninguna forma, ni siquiera usando la introspección. Si yo me analizo a mí mismo pensando, recordando o sintiendo, lo único que encuentro son pensamientos, recuerdos o sentimientos, pero nunca a ese sujeto que los tiene. Nadie jamás ha observado su yo ni el de nadie ¿En ciencia no ese eso suficiente para negar la existencia de algo?
  2. La neurología contemporánea no ha encontrado ningún lugar en el cerebro donde pueda encontrarse el módulo del Yo (aunque hay intentos muy loables). Las investigaciones apuntan más a que cada elemento de la experiencia consciente se procesa en diferentes partes del cerebro. De hecho, uno de los grandes problemas de la neurología actual es el llamado binding problem: ¿cómo se integra y se sincroniza toda la información sensorial en una imagen mental coherente?
  3. Los famosos experimentos de Benjamin Libet y muchos otros posteriores, sobre libre albedrío, muestran que los sujetos son conscientes de tomar una decisión después de que la decisión haya sido tomada. La conclusión es totalmente revolucionaria: el Yo, si es que existe, no decide… por lo tanto, no tiene ninguna relación con la libertad.
Desde luego, si el libre albedrío es una noción oscura, la de Yo no le va a la zaga… ¿Qué nos queda entonces? ¿Tenemos que renunciar a una idea tan central en nuestro mundo como lo es la libertad?
El alegato del general Montgomery
Volvemos a la historia de los drones asesinos. Cuando todo parecía indicar que el responsable y, por lo tanto, culpable de todo era el general Montgomery, sus abogados elaboraron una sorprendente defensa: alegaron que el libre albedrío no existía, por lo que el general Montgomery ordenando que sus drones violaran la convención de Massachusetts, era tan poco libre como el dron ejecutando la orden. Entonces, o los dos no son libres y ninguno de ellos tiene responsabilidad en la muerte de la hija de Smithson, o los dos son igualmente libres y entonces, el dron, ejecutor de la acción, es el genuino responsable.
El juez comenzó a ponerse nervioso. Si no existía el libre albedrío nadie sería responsable de nada por lo que el sistema judicial era un fraude… ¡Todo el trabajo de su vida no tenía sentido! ¡Tranquilícese señoría! – Repuso uno de los abogados – Tal como defendió el filósofo escocés David Hume, es posible compatibilizar una cierta idea de libertad con el determinismo físico.
Se trata de definir como acción libre aquella que no está en contra de las determinaciones de mi propia voluntad. Mis pensamientos, creencias, valores, etc. que causan mi acción están completa y absolutamente determinados por causas anteriores y yo no soy más libre que el dron de combate.
Estoy, por decirlo en términos informáticos, programado de antemano por mi naturaleza y mi cultura. Sin embargo, si debido a éstas yo quiero elegir A, y algo externo a mí me impide que yo lo elija, estará poniendo trabas a mi libertad e impidiendo que yo obre libremente. Por decirlo de otra forma: ser libre es poder obrar conforme a lo que estoy determinado.
De este modo, podemos juzgar y condenar a cualquier criminal sin que el sistema judicial se venga abajo ¡Es posible justicia sin libertad! Por lo tanto, el dron, actúo siguiendo su programación sin que nadie se interpusiera entre su libre obrar y su objetivo, por lo que es culpable de sus actos.
La sentencia sorprendió al mundo: el 28 de agosto de 2044, el dron de combate de tipo R-6 Alpha C con nº de bastidor 365889725E, fabricado y ensamblado en Taiwan por la Hongji Corporation, para la empresa estadounidense Deep Mind, actualmente en propiedad del ejército británico, fue el primer robot de la historia juzgado y condenado en un juicio. El castigo fue ejemplar: desmontar el dron y reciclar sus piezas para otros drones, destruyendo así su individualidad como agente racional (el equivalente robótico a una condena a muerte).
No obstante, ni el general Montgomery ni la empresa Deep Mind se fueron del todo de rositas. El general por reprogramar el dron para que pudiese violar la convención de Massachusetts, fue condenado por cómplice e inductor del asesinato. Se le degradó de su rango y se le condenó a pasar tres años en una prisión militar (si bien al final, y de nuevo por la habilidad de sus abogados, no cumplió ninguno).
A Deep Mind le cayó una cuantiosa multa por violar ciertas leyes de protección de software que prohibían vender código abierto sobre ciertos productos militares (si bien al final no pagó nada. Se declaró en bancarrota e incapaz de pagar, cambió su nombre por Deep Neuron y se refundó, siendo hoy en día la empresa hegemónica en el diseño de drones de combate).
Pero lo más interesante es que esa sentencia creó jurisprudencia y, en cuestión de pocas semanas, los tribunales de todo el mundo estaban llenos de juicios en los que había inmiscuidos robots; y en cuestión de unos años, ya existía una rama del Derecho específica llamada Derecho Computacional, en el que se intentaba legislar para clarificar todo ésta difícil problemática acerca de las máquinas criminales.


Científicos logran crear una inteligencia artificial capaz de predecir el futuro
Algunas personas pueden ver eventos futuros dentro de sus mentes mientras que otros ven el futuro en sus sueños. Algunos psíquicos conocen los eventos futuros gracias a los mensajes “enviados” por sus guías espirituales, mientras que otros simplemente conocen lo que está por ocurrir de una manera intuitiva. Pero todos ellos experimentan la precognición de una manera u otra.
Y la capacidad de ver el futuro no es simple ficción, a lo largo de la historia ha habido casos bien documentados de personas que soñaron con el hundimiento del Titanic, o incluso sobre los trágicos atentados del 11 de septiembre de 2001.
Sin embargo, también hay que decir que muchos sueños o visiones no son del todo claros y muestran un suceso futuro de una manera simbólica que requiere de ciertas interpretaciones. Los únicos que no necesitan utilizar la precognición son los psíquicos y los médiums. Debido a que estas personas tienen una conexión especial con el mundo espiritual, les es posible leer la energía y tener una visión sobre el futuro de una persona o conocer intuitivamente los eventos futuros. Dicho esto, imagina por un momento que puedes “ver” el futuro, ¿qué harías? ¿Sabrías el ganador del Mundial de Fútbol de 2018 y apostarías una gran suma de dinero? ¿Tal vez te convertirías en Tom Cruise y detendrías a los criminales al estilo Minority Report? Independientemente de cuál sea tu respuesta, esa posibilidad pronto podría estar al alcance de todos ya que un grupo de desarrolladores en la Universidad de Bonn, Alemania, han conseguido utilizar la inteligencia artificial para predecir el futuro.
El poder de predecir el futuro
Investigadores alemanes han desarrollado un software que es capaz de predecir, con gran precisión, y cómo se desarrollarán eventos antes de que sucedan. Se trata de un sistema de predicciones altamente preciso basado en el análisis de información pasada. Como explica el profesor Jürgen Gall, tal técnica permite a una computadora “predecir el tiempo y la duración de las actividades, minutos o incluso horas antes de que sucedan”.
El equipo del Dr. Gall cree que esta tecnología revolucionaria se puede utilizar para uso doméstico, como por ejemplo los asistentes robóticos. Los humanos pueden comprender y anticipar las acciones de los demás, brindándoles apoyo cuando es necesario. Sin embargo, los robots aún no pueden hacer esto. Ahora, con el nuevo software del Instituto de Ciencias de la Computación de la Universidad de Bonn, la inteligencia artificial puede comenzar a estimar el tiempo y la duración de las actividades futuras por períodos de varios minutos, entendiendo cuándo van a necesitar implicarse para, supuestamente, ofrecer ayuda.
El programa informático fue “entrenado” durante más de cuatro horas con vídeos que mostraban cocineros preparando diferentes ensaladas. Cada grabación duraba cerca de seis minutos, que contenía alrededor de 20 acciones diferentes. También se mostró a la inteligencia artificial, durante el vídeo, un marco de tiempo sobre qué era la acción, cuándo comenzó y cuánto tiempo se necesitó.
Al mirar estos vídeos, el sistema pudo aprender qué acciones seguían típicamente a otras y por cuánto tiempo generalmente duraban. Sin embargo, debe haber espacio para la flexibilidad, los diferentes chefs hacen tareas en diferentes órdenes o a diferentes velocidades y el ordenador necesita ser capaz de entender sus demandas. Para probar el software, el equipo de investigadores preparó un conjunto de vídeos que nunca antes había visto. También estaban a punto de preparar ensaladas, pero esta vez la computadora solo sabía lo que iba a suceder en el primer 20% a 30% del vídeo, luego tenía que predecir lo que iba a ocurrir y cuándo.
“La precisión fue superior al 40% para períodos cortos de pronóstico”, explica el Dr. Gall, “Pero luego cayó cuando el algoritmo tenía que mirar hacia el futuro.”
Pero las actividades que se extienden más allá de los tres minutos en el futuro solo tuvieron una predicción del 15%. El equipo también reconoce que la inteligencia artificial aún no consigue resolver lo que sucede en un vídeo sin información contextual sobre cómo comenzó. Sin embargo, ese es un problema que se puede resolver fragmentando los datos y ayudando a proporcionar un contexto de aprendizaje para el programa en sí.
Sin duda, lo que ha conseguido el Dr. Gall y su equipo es un avance realmente sorprendente. Pero la realidad es que solo estamos al comienzo del desarrollo del software de predicción, que probablemente llegue a ser extremadamente poderoso en un futuro próximo. Y lo que también hay que tener en cuenta es que las posibilidades que ofrece este tipo de tecnología son bastante aterradoras.
Si las empresas logran predecir clientes potenciales, podrían tratar de manipular su comportamiento a través de publicidad dirigida intencionadamente. Por no decir, que nos podemos encontrar ante un futuro distopico donde los humanos somos controlados mediante una tecnología similar a la representada en el relato corto de 1956 de Philip K. Dick titulado “El informe de la minoría (en inglés: The Minority Report)”. Pero también hay que recordar a los científicos que nunca conseguirán arrebatarnos nuestra verdadera existencia, nuestro ser.
¿Qué opinas sobre la nueva tecnología para predecir el futuro? ¿Los científicos tienen que otorgarles ese poder a las maquinas?
 


China crea un robot profesor para dar clases a los niños
Jun 17, 2018
China presenta a ‘iPal’, un robot educativo concebido como compañero de los más pequeños de la casa, 15 de junio de 2018.
iPal es uno de los robots educativos presentados esta semana en el salón de la electrónica de consumo de Shanghái, gran simposio de la innovación tecnológica de Asia. El artilugio está programado para hablar en dos idiomas, da clases de matemáticas, bromea e interactúa con los niños a través de una tableta electrónica en el pecho.
Este robot tiene la estatura de un niño de cinco años, se desplaza sobre ruedas, está dotado de brazos articulados y lleva en el pecho una amplia tableta. Sus ojos están equipados con una tecnología de reconocimiento facial.
iPal es de color blanco, con ribete rosa o azul. El aparato permite a los padres hablar a distancia con sus hijos y vigilarlos, gracias a sensores que oyen y ven todo lo que sucede a su alrededor. 



No hay comentarios.:

Publicar un comentario

Advertencia sobre comentarios

Advertencia sobre comentarios
Related Posts Plugin for WordPress, Blogger...