.

Computación

Un vistazo a ayudantes proféticos y gigantes tocados

1

En 2012, tanto el hardware como el software nos trajeron avances en usabilidad, chips más rápidos y el control por gestos.

  • por Tom Simonite | traducido por Lía Moya (Opinno)
  • 03 Enero, 2013

Sintiéndolo: Esta pantalla táctil de Tactus Technology permite a los usuarios sentir botones sobre una interfaz plana.

A uno de los temas más interesantes en innovación informática a lo largo de los últimos 12 meses se le puede seguir la pista hasta el año anterior. En 2011 el ayudante virtual de Apple, Siri, demostró que el software y los ordenadores podían ser algo más que herramientas, que podían ser algo más parecido a colaboradores. En 2012 la competencia de Apple amplió este campo con avances que podrían dar forma a la tecnología de los próximos años.

La empresa que creó Siri originariamente, SRI, creó un sistema parecido capaz de trabajar como cajero de banco. Mientras, Google lanzó dos versiones alternativas de un ayudante móvil. Google Now, instalado en los teléfonos y tabletas Android más modernos, funciona como un motor de búsqueda al revés, ofreciendo datos como la previsión del tiempo, informes sobre el tráfico o tiempos de tránsito cuando considera que alguien necesita esa información. Una aplicación similar, denominada Field Trip, sirve para explorar una ciudad nueva: avisa a los usuarios sobre atracciones cercanas, negocios con buenas críticas y eventos. Ambas aplicaciones no tienen anuncios por ahora, pero demuestran un potencial evidente para incluir ofertas basadas en la localización. En el mes de diciembre se lanzó una aplicación para el iPhone de depurado aspecto, muy parecida a Google Now.

Uno de los principales investigadores de Microsoft, Eric Horvitz, contribuyó a la tendencia con un navegador capaz de identificar y explorar hitos en el pasado de una persona. Sin embargo, al software aún le queda mucho camino por recorrer para equipararse a la capacidad humana de procesar, filtrar y construir información. En septiembre, un proyecto de investigación universitario lo dejó claro creando un ayudante virtual que tira del crowdsourcing así como de software de inteligencia artificial para mantener conversaciones inteligentes. Pocos meses después, una start-up anunció que este tipo de ayudante pronto estaría disponible como producto.

Todos estos avances –incluyendo a Siri- deben mucho a las mejoras en el aprendizaje automático, una rama de la inteligencia artificial dedicada a permitir que el software consuma datos y averigüe las cosas por sí mismo.

Uno de los resultados de estas mejoras es que el software de reconocimiento del habla inglesa de Google es un 20 por ciento más preciso este año, gracias a un perfeccionamiento del software de aprendizaje automático de la empresa, que pronto se aplicará a otros idiomas. Los ingenieros pasaron de modelos basados puramente en las estadística a las denominadas redes neurales artificiales, hechas a imagen de las neuronas biológicas. La misma tecnología de aprendizaje automático sirvió para dar vida a una notable demostración de investigadores de Google sobre software capaz de reconocer gatos viendo vídeos de YouTube y una demostración de Microsoft en la que el inglés hablado se traducía a chino hablado en tiempo real. Para aquellos a quienes este tipo de trabajos les provoquen dudas sobre la realidad, aquí tienen una forma de comprobar si el mundo que les rodea es una simulación por ordenador o no (en inglés).

Tocar y sentir
Para convertirse en colaboradores cercanos, los ordenadores tienen que entendernos, algo de lo que estamos más cerca gracias a las mejoras logradas en 2012 en las interfaces que usamos para comunicarnos con el software y las máquinas.

Algunos investigadores demostraron formas de hacer que las pantallas táctiles convencionales fueran más expresivas. La start-up Qeexos presentó mejoras en hardware y software que permiten a una pantalla táctil distinguir entre dedos y nudillos, mientras que otra joven empresa, Tactus, inventó una pantalla que cambia de forma y es capaz de pasar de una superficie plana a una con teclas en relieve.

Las grandes y pequeñas empresas también fueron más allá de la pantalla táctil, acercándonos a una era en la que será normal controlar un ordenador o un aparato móvil usando gestos. La start-up Leap Motion dejó alucinados a unos cuantos –incluyendo a este reportero- con su controlador por gestos de 70 dólares (unos 53 euros). Intel presentó portátiles que contaban con  una tecnología parecida, mientras que Microsoft preparó una versión de Kinect, su accesorio para juegos, para PC y otros ordenadores domésticos.

La visión más radical y nueva en la interactuación con los ordenadores provino de Google: una montura de gafas que porta una pequeña pantalla. Un moderno vídeo promocional para el producto (en inglés), que se llama Google Glass, daba pistas sobre lo que podría permitir. Los fundadores de Google probaron la tecnología cerca de las oficinas de TR en San Francisco, pero la propia empresa admitió que necesitaba la ayuda de desarrolladores externos para encontrar las mejores aplicaciones posibles para él.

Mejores bloques de construcción
Todos los avances mencionados hasta ahora se basan en mejoras en el hardware. Los investigadores siguieron desarrollando hardware más rápido, potente y eficaz, centrándose en apuntalar la Ley de Moore, el crecimiento a ritmo regular de la densidad de procesadores presentes en los chips informáticos que lleva 50 años vigente.

El progreso en este campo ha dependido de encontrar formas de grabar características más finas en los chips, y en abril Intel lanzó la línea Ivy Bridge, los primeros chips con detalles de hasta 22 nanómetros. Intel también ha liderado a las empresas de chips al lanzar una colaboración multimillonaria sobre tecnología ultravioleta “extrema”, con la intención de asegurar de que el tamaño de los componentes siga reduciéndose aún más.

Las técnicas de fabricación a pequeña escala también son claves para la tecnología de los discos duros y un avance en diseños autoensamblables anunciado en noviembre sugiere un camino por el que avanzar. Una inusual historia de tecnología de chips provino de los devotos de la moneda virtual Bitcoin, que empezaron a diseñar chips a medida para poder extraer dinero digital más rápido.

Sin embargo Intel –y la ley de Moore- apenas se mencionaron en relación con los teléfonos inteligentes y las tabletas, la mayoría de los cuales funcionan con procesadores más eficientes basados en diseños de la empresa británica ARM. El director ejecutivo de la compañía me comentó en noviembre que considera que la ley de Moore es irrelevante y que ARM planea competir en otros campos de la informática. Su tecnología podría ayudar a empresas como Facebook, que en 2012 hizo públicas las cifras sobre la energía consumida por los vastos centros de datos que sirven a sus mil millones de usuarios.

Una apuesta aún más arriesgada por el futuro del hardware informático es la hecha tanto por el fundador de Amazon, Jeff Bezos, como por la CIA. Ambos han invertido en una empresa canadiense que puede haber averiguado (o no) cómo explotar los extraños efectos de la mecánica cuántica para analizar datos más rápido de lo que es capaz un ordenador convencional.

Cambio generacional
Las mayores historias de los grandes como Apple o Microsoft también han tenido que ver con hacer que los ordenadores sean más fáciles de comprender y usar. Apple, cuyo difunto fundador, Steve Jobs, había desechado la idea de las tabletas menores de diez pulgadas como “niñerías... muertas antes de nacer”, se echó para atrás y copió a rivales como Google al lanzar una tableta justo de esas características, el iPad Mini. El nuevo aparato ha recibido buenas críticas: su reducido tamaño y peso hacen que sea mucho más fácil de usar sin perder potencia, así que tiene más probabilidades de convertirse en el acompañante permanente de alguien.

Los esfuerzos de Microsoft en el campo de las relaciones humano-ordenador se hicieron patentes con el lanzamiento de Windows 8, un esfuerzo por reimaginar el sistema operativo que usan unos 1.300 millones de personas y ayudar a la empresa a recuperar la influencia en una industria en la que ahora mismo los aparatos móviles se imponen a los PC.

Ambos sistemas, tanto Windows 8 para ordenador como Windows 8 para teléfono han recibido buenas críticas por parte de nuestros reporteros. Pero algunas características supuestamente diseñadas para un futuro en el que todos los PC tengan una pantalla táctil como una tableta crearon cierta confusión, una sensación que se repitió en otras críticas y entre los usuarios pioneros de este sistema.

A pesar de las quejas, el ejecutivo encargado del desarrollo de producto para Windows 8 afirmó a MIT Trechnology Review que los datos recogidos por defecto a algunos usuarios del sistema operativo sugieren que la gente no tiene problemas. Pero como señaló uno de nuestros blogueros, las discusiones sobre el diseño de Windows 8 son tanto un recordatorio de que todos los sistemas operativos tienen sus defectos como una crítica a las elecciones de Microsoft.

En el año que acaba de empezar se pondrán a prueba muchas de las tecnologías informáticas que recibieron nuestra atención en 2012; seguro que averiguaremos si el gran experimento de Microsoft ha sido un éxito o un fracaso mayúsculo.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. ‘Chiplets’: el arma de China en su batalla tecnológica contra EE UU

    Al conectar varios chips menos avanzados en uno, las empresas chinas podrían eludir las sanciones impuestas por el gobierno estadounidense.

  2. Esta ciudad china quiere ser el Silicon Valley de los ‘chiplets’

    Wuxi, el centro chino del envasado de chips, está invirtiendo en la investigación de ‘chiplets’ para potenciar su papel en la industria de semiconductores

  3. La computación cuántica se abre camino a través del ruido

    Durante un tiempo, los investigadores pensaron que tendrían que conformarse con sistemas ruidosos y propensos a errores, al menos a corto plazo. Esto está empezando a cambiar.

    Jay Gambetta dirige el desarrollo de los ordenadores cuánticos de IBM y lideró la iniciativa de llevar estos sistemas a la nube.