Me gusta

jueves, 7 de septiembre de 2017

Mas trabajador, menos humano



Aerolínea estrena experimento con robots en el aeropuerto de Sídney
Ago 24, 2017
Por Sputnik
Hasta el 25 de agosto, los pasajeros de Air New Zealand podrán interactuar con robots humanoides que los asistirán en los procedimientos de embarque en el aeropuerto de Sídney. El experimento pretende avanzar en la "robótica social".
Su nombre no podría ser más obvio: Chip. Se trata del nuevo asistente de embarque de la aerolínea neozelandesa Air New Zealand, un robot humanoide, como lo identifican sus creadores. Sin embargo, su lanzamiento es, por ahora, un experimento.
De acuerdo con un comunicado de la empresa remitido a Sputnik, la idea es profundizar los conocimientos en el área de la robótica social, anticipando un futuro en el que máquinas y seres humanos conviven normalmente.
"Chip es uno de los robots humanoides más avanzados del mundo, y es perfecto para nuestro trabajo dirigido a comprender cómo interactúan los seres humanos y los robots en espacios sociales dinámicos", afirmó en el texto Tiziana Bianco, gerente general de Laboratorios de Innovación del Banco Commonwealth, que también participa del emprendimiento.
"La gente interactúa con ellos de una manera muy social y a veces emocional, lo que significa que pueden mejorar la atención al cliente de maneras que otras tecnologías no pueden hacer", completó.
El aeropuerto de Sídney fue elegido para proporcionar "un entorno real" de "escala global". Los pasajeros los encontrarán en los mostradores de Air New Zealand y en los espacios previos a las puertas de embarque hasta este 25 de agosto.

 

La inteligencia artificial se impone a los médicos en el diagnóstico de enfermedades
Ago 23, 2017
Por Sputnik
China ha fabricado un superordenador que emplea la inteligencia artificial y que permite hacer diagnósticos de numerosas enfermedades con alta precisión.
Según la agencia Xinhua, la nueva computadora analiza los síntomas de un paciente y es capaz de detectar varios tipos de trastornos, desde agotamiento nervioso hasta enfermedades infecciosas.
Además del rápido funcionamiento y una certeza casi absoluta a la hora de determinar enfermedades sobre la base de una historia clínica y los resultados del análisis, el sistema ofrece elegir el esquema de tratamiento más adecuado.
Durante las pruebas se reveló que los diagnósticos de la computadora son un 20% más precisos que los de un médico verdadero. Los científicos chinos estiman que el programa permitirá elevar considerablemente la calidad de los servicios médicos.
Los productores del ordenador están seguros, a su vez, de que el aparato será de ayuda para las instituciones médicas en las regiones más pobres del país.




Aprendizaje Profundo: La caja negra de la Inteligencia Artificial
Ago 24 Publicado por melvecs
Nadie, ni siquiera los desarrolladores saben realmente cómo los algoritmos más avanzados de inteligencia artifical hacen lo que hacen. Eso podría ser un problema.
En 2016, un extraño automóvil de conducción automática fue lanzado en las tranquilas calles del condado de Monmouth, Nueva Jersey. El vehículo experimental, desarrollado por los investigadores del fabricante de chips Nvidia, no se veía diferente de otros autos autónomos, pero no era nada similar a lo demostrado por Google, Tesla o General Motors, y mostró el creciente poder de la inteligencia artificial. El coche no siguió una sola instrucción proporcionada por un ingeniero o un programador. En su lugar, se basó enteramente en un algoritmo que él mismo se había enseñado para conducir viendo cómo lo hacía un humano.
Conseguir que un coche condujera de esta manera fue una hazaña impresionante. Pero también es un poco inquietante, ya que no está completamente claro cómo el automóvil toma sus decisiones. La información de los sensores del vehículo va directamente a una enorme red de neuronas artificiales que procesan los datos y luego entregan los comandos necesarios para operar el volante, los frenos y otros sistemas. El resultado parece coincidir con las respuestas que esperarías de un conductor humano. Pero ¿qué pasaría si un día hiciera algo inesperado: se estrellara contra un árbol o se detuviera con la luz en verde? Tal y como están las cosas ahora, podría ser difícil averiguar por qué. El sistema es tan complicado que incluso los ingenieros que lo diseñaron pueden tener dificultades para aislar la razón de una sola acción. Y no se puede preguntar: no hay forma obvia de diseñar un sistema de este tipo para que siempre se pudiera explicar por qué hizo lo que hizo.
La misteriosa mente de este vehículo señala un problema inminente con la inteligencia artificial. La tecnología subyacente de IA del automóvil, conocida como aprendizaje profundo, la cuál ha demostrado ser muy poderosa para resolver problemas en los últimos años y ha sido ampliamente implementada para tareas como la clasificación de imágenes, el reconocimiento de voz y la traducción de idiomas.
El aprendizaje profundo es especialmente críptico debido a su increíble complejidad. Se inspira más o menos en el proceso por el cual las neuronas en un cerebro aprenden en respuesta a la entrada. Muchas capas de neuronas simuladas y sinapsis son datos etiquetados y su comportamiento se sintoniza hasta que aprenden a reconocer, digamos, un gato en una fotografía. Pero el modelo aprendido por el sistema está codificado en los pesos de muchos millones de neuronas, y por lo tanto es muy difícil de examinar. Cuando una red de aprendizaje profundo reconoce a un gato, por ejemplo, no está claro si el sistema puede enfocarse en los bigotes, las orejas o incluso la manta del gato en una imagen.
El aprendizaje profundo, el más común de estos enfoques, representa una manera fundamentalmente diferente de programar computadoras. "Es un problema que ya es relevante, y va a ser mucho más relevante en el futuro", dice Tommi Jaakkola, profesor del MIT que trabaja en aplicaciones de aprendizaje automático. "Ya sea una decisión de inversión, una decisión médica, o tal vez una decisión militar, no quisieras confiar en un método de  caja negra".
Ya existe un argumento de que ser capaz de interrogar a un sistema de IA sobre cómo llegó a sus conclusiones es un derecho legal fundamental. A partir del verano de 2018, la Unión Europea puede exigir que las empresas puedan dar a los usuarios una explicación de las decisiones que los sistemas automatizados alcanzan. Esto podría ser imposible, incluso para sistemas que parecen relativamente simples en la superficie, como las aplicaciones y los sitios web que utilizan el aprendizaje profundo para publicar anuncios o recomendar canciones. Los ordenadores que ejecutan esos servicios se han programado y lo han hecho de formas que no podemos entender. Incluso los ingenieros que construyen estas aplicaciones no pueden explicar completamente su comportamiento.
Nunca antes hemos construido máquinas que operan de manera que sus creadores no entienden. ¿Qué tan bien podemos esperar comunicarnos – y llevarnos bien – con máquinas inteligentes que podrían ser impredecibles e inescrutables?
En 2015, un grupo de investigación en el Mount Sinai Hospital en Nueva York se inspiró para aplicar el aprendizaje profundo a la vasta base de datos del hospital de los registros de pacientes. Este conjunto de datos presenta cientos de variables sobre los pacientes, extraídos de los resultados de las pruebas, visitas al médico, etc. El programa resultante, que los investigadores llamaron Deep Patient, fue entrenado usando datos de alrededor de 700,000 individuos, y cuando fue probado en nuevos registros, resultó increíblemente bueno en la predicción de la enfermedad. Sin ninguna instrucción experta, Deep Patient había descubierto patrones ocultos en los datos del hospital que parecían indicar cuando la gente estaba en el camino a una amplia gama de dolencias, incluyendo el cáncer de hígado.
Al mismo tiempo, Deep Patient es un poco desconcertante. Parece anticipar la aparición de trastornos psiquiátricos como la esquizofrenia sorprendentemente bien. Pero dado que la esquizofrenia es notoriamente difícil de predecir para los médicos, Joel Dudley, líder del proyecto Deep Patient se preguntó cómo era esto posible. Todavía no lo sabe. La nueva herramienta no ofrece ninguna pista sobre cómo lo hace.
Si algo como Deep Patient realmente va a ayudar a los médicos, idealmente les dará la razón de su predicción, para tranquilizarlos de que es precisa y para justificar, digamos, un cambio en las drogas que a alguien le están recetando. "Podemos construir estos modelos", dice Dudley tristemente, "pero no sabemos cómo funcionan".
Pero Nvidia está trabajando para abrir esta caja negra. Se ha desarrollado una manera de resaltar visualmente a lo que el sistema está prestando atención. Como se ha explicado en un artículo publicado, la arquitectura de redes neuronales desarrollada por los investigadores de Nvidia está diseñada para que pueda destacar las áreas de una imagen de vídeo que contribuyen más fuertemente al comportamiento de la red neuronal profunda del coche. Sorprendentemente, los resultados muestran que la red se está enfocando en los bordes de caminos, las marcas de carriles y los autos estacionados, justo el tipo de cosas a las que un buen conductor humano desearía prestar atención.

"Lo revolucionario de esto es que nunca le dijimos directamente a la red que se preocupara por estas cosas", escribió en un blog Urs Muller, el arquitecto jefe de Nvidia para automóviles autodirigidos.
No es una explicación completa de cómo las razones de la red neuronal, pero es un buen comienzo. Como Muller dice: "No puedo explicar todo lo que necesito que haga el auto, pero puedo mostrarlo, y ahora puede mostrarme lo que aprendió".
Támbien la Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA), que realiza investigaciones a largo plazo para los militares estadounidenses, financia varios esfuerzos de investigación similares a través de un programa llamado Explainable Artificial Intelligence (XAI).
Un equipo seleccionado para recibir financiamiento de DARPA proviene de Charles River Analytics, una compañía que desarrolla herramientas de alta tecnología para varios clientes, incluyendo el ejército estadounidense. Este equipo está explorando nuevos sistemas de profundización que incorporan una explicación, como aquellos que destacan áreas de una imagen que parecen más relevantes para una clasificación. Los investigadores también están experimentando con interfaces de computadora que hacen que el funcionamiento de sistemas de aprendizaje de máquina sea más explícito con datos, visualizaciones e incluso explicaciones de lenguaje natural.
Cabe mencionar que IBM ha anunciado que han desarrollado una IA que hace que todo el proceso de aprendizaje de la máquina sea más rápido. En lugar de ejecutar complejos modelos de aprendizaje profundo en un solo servidor, el equipo, liderado por el director de aceleración de sistemas y memoria de IBM Research, Hillery Hunter, logró ampliar eficientemente el aprendizaje profundo distribuido (DDL) utilizando múltiples servidores.

 

No hay comentarios.:

Publicar un comentario

Aviso

Aviso

Advertencia sobre comentarios

Advertencia sobre comentarios
Related Posts Plugin for WordPress, Blogger...