Sunday, May 31, 2009

Habrá que esperar para las transmisiones en vivo de YouTube

El director de comunicaciones del popular sitio aseguró que no está entre los próximos planes popularizar este servicio ya disponible para uso empresarial. Pero no descartó que en un futuro sea posible

El director de comunicaciones de YouTube, Ricardo Reyes, aseguró ayer que los desafíos de la compañía para el futuro tienen que ver con "tratar de incrementar los usuarios, la cantidad de videos que son subidos a la página y hacer el sistema más fácil"

Reyes adelantó además que, si bien, YouTube transmite eventos en vivo con determinadas entidades y empresas asociadas, no está en los planes próximos de la compañía abrir la posibilidad de que los usuarios puedan subir sus grabaciones en tiempo real.

"Hemos hecho eventos en vivo, con mucho control, pero el problema de abrirlo a los usuarios es el contenido que pueden subir", aseguró el directivo de YouTube. En ese sentido, hizo especial referencia a los derechos de autor que pueden violar esas grabaciones.

Sin embargo, Reyes dejó una puerta abierta hacia el futuro: "No es una cosa en la que nos focalizamos, pero tampoco lo descartamos".

Fuente: Télam

Street View desembarca en América Latina

México y Brasil serán los primeros países de la región en mostrarle al mundo imágenes de sus principales calles y atractivos turísticos a través de un servicio que se integra con el ya tradicional Google Maps

Tal como sucede en algunos estados de los Estados Unidos y en las principales ciudades europeas, este servicio permitirá a los usuarios explorar en 360° distintos sitios de la región, según se anunció hoy en el Google Press Summit que se realizó San Pablo.

Con su clásica reticencia a lanzar fechas, los directivos del megabuscador anunciaron sobre el filo del cierre de la conferencia que "en los próximos días" habrá novedades sobre Street View en México y Brasil.

Consultado sobre los planes para el resto de los países del continente, Daniel Ratner, uno de los ingenieros que trabaja en el desarrollo de la herramienta, indicó: "En términos específicos no puedo dar información, pero la visión de Google es estar en todos los países y en todos los lugares que puedan ser valiosos".

Así, los latinoamericanos deberán acostumbrarse a ver la Google Trike por sus calles, una bicicleta especialmente diseñada para captar las fotografías que se integran a Google Maps a través de Street View.

Luego de probar con camionetas, automóviles y prototipos, la empresa apostó por esta simpática bicicleta para llegar a los lugares que hasta ese momento eran inaccesibles. "Teníamos que aumentar la visión de los escenarios en donde los automóviles no podían entrar y aparte queríamos explorar espacios naturales, a los que muchas veces es imposible acceder", relató Ratner.

La bicicleta inteligente de Google ya recorrió ciudades europeas, asiáticas y norteamericana, y en los próximos meses tendrá quizás misiones mucho más álgidas, como la recorrida por el Amazonas o la inspección de la Cordillera de los Andes.

Por lo pronto, la firma anunció que continuará reproduciendo su flota de bicicletas para llegar a cada vez más sitios de todo el mundo y difundirlas a través de sus mapas digitales.

Google, con noticias de hace 100 años

El anuncio fue realizado por el gerente de Comunicación de la marca, Josh Cohen, en un encuentro con periodistas en San Pablo.

"En los próximos meses vamos a centrar nuestro desarrollo en el agregado de contenidos históricos. Nuestro objetivo es llegar a ofrecer noticias de hasta 100 años de antigüedad", anunció Josh Cohen en el Google Press Summit que se cerró esta tarde en San Pablo, Brasil.

De este modo, Google busca ampliar su actual plataforma de noticias que ofrece contenidos publicados en los principales medios de todo el mundo de los últimos 30 días. Para ello, el megabuscador inició conversaciones con los tradicionales diarios impresos para digitalizar sus contenidos y almacenarlo en sus servidores.

Los especialistas creen que en el futuro este sistema puede transformarse en un mecanismo ideal para que los tradicionales medios gráficos realicen la mutación hacia internet y puedan así "monetizar" los contenidos que alguna vez fueron publicados y hoy en día no se encuentran al alcance de sus lectores.

Sin embargo, en el inicio de proceso de digitalización de contenidos los desarrolladores de Google se encontraron con una barrera difícil de quebrar: son escasos los registros anteriores al año 1990. Es por eso que creen que este sistema se irá valorizando con el paso de los años, las décadas y, quizás, los siglos.

Google News también planea incorporar en futuro inmediato algunos contenidos multimedia a su ya tradicional buscador de noticias en medios digitales. La apuesta apunta básicamente a videos y audios, para lo cual la empresa está definiendo filtros especiales para indexar esos contenidos.

Google News es un servicio que cataloga y ofrece noticias prácticamente en tiempo real. Está disponible en 26 idiomas para computadoras y en 14 para dispositivos móviles, algo en lo que también prometen trabajar en el futuro.

Saturday, May 30, 2009

Polémica: ¿Cuántos megapíxeles son suficientes para una cámara?

La mayoría de fabricantes esgrime el número de megapíxeles de las cámaras digitales como argumento a la hora de vender su producto. “Cuantos más, mejor“, es el lema. Sin embargo, en la firma japonesa Olympus han decidido desmarcarse de la carrera de la alta resolución. Al menos, en la distribución al gran público de su gama E. Así lo afirmó en una entrevista Watanabe Akira, directivor de Olympus. Para él, 12 megapíxeles son suficientes. ¿Usted que opina?

A la hora de comprar una cámara digital, muchos consumidores se fijan principalmente en los megapíxeles. No es la prestación más importante de la cámara ni la que asegura obtener imágenes de mejor calidad, pero sí un dato que llama mucho la atención y que se entiende fácilmente, a diferencia de otras funciones que suenan a coreano.

Al fin y al cabo, una fotografía con 5 MP de resolución (una capacidad que hace tiempo que superaron las cámaras digitales, y que ya alcanzan incluso muchos teléfonos) cumple de sobra con la calidad que necesita el usuario medio, que raramente imprime sus imágenes y que tal vez hará una foto de gran tamaño para terminar subiéndola a su perfil de Facebook.

Además, las fotografías de gran tamaño tienen una serie de efectos secundarios negativos, entre ellos, saturar antes las tarjetas de memoria, ocupar más espacio en los discos duros de las computadoras, o no reproducir con fidelidad los colores originales.

La competencia entre los fabricantes de cámaras digitales por ofrecer la máxima capacidad de megapíxeles ha ido subiendo poco a poco el listón, hasta alcanzar recientemente los 12 MP, que ofrecen diferentes modelos de Samsung, Canon o Pentax.

Llegados a este punto, parece que algunos se empiezan a desentender de esta competición. Es el caso del fabricante japonés Olympus, uno de los más importantes del mercado. Akira Watanabe, uno de sus directivos, declaró que “12 MP son suficientes para cubrir la mayoría de las necesidades de la mayoría de los usuarios”.

Por este motivo, Olympus se retira de esta pugna, y renuncia a intentar vender más cámaras ofreciendo más MP. En su lugar, la compañía se centrará en otro tipo de mejoras de las cámaras, como el rango dinámico (el espectro de colores que el sensor es capaz de reproducir) o la mejora de la calidad de imágenes tomadas con poca luz.

Otras tendencias que se apuntan más allá de la guerra de los MP son mejorar la calidad del zoom, construir lentes con mayor sensibilidad, y capacidad para grabar y reproducir vídeo de Alta Definición.

Se trata en definitiva de dar una experiencia general más completa, y no centrarse sólo en el tamaño de las fotos, de igual forma que un coche no se vende sólo por la velocidad punta que alcanza, sino por el conjunto de sus prestaciones.

Un finlandés pierde el dedo y le colocan una memoria USB

Hay quien dice que la tecnología es ya una parte fundamental de nuestras vidas, pero un joven finlandés se ha tomado esa frase demasiado en serio y la ha hecho también parte de su anatomía. Jerry Jalava perdió su anular en un accidente y, cuando su doctor supo que se dedicaba a desarrollar software, no dudó en proponerle una prótesis con un memory stick incluido. La prótesis de Jerry no se encuentra de manera fija en su mano, por lo que cuando necesita usar la memoria USB sólo la retira de su dedo y la deja instalada en el puerto de la computadora.

Y es que Jerry Jalava tiene en su dedo anular una memoria USB, con capacidad de 2 gigabytes y compatible con el sistema operativo Linux.

La historia de este "Dedo-USB" se remonta a mayo del 2008, cuando Jerry, quien es desarrollador de software y un fanático de las motocicletas, tuvo un accidente mientras conducía su Ducati Monster de vuelta a casa.

Según narra en su propio blog, Jalava se estrelló contra un venado en el camino, lo que provocó que se deslizara varios metros sobre el asfalto con una de sus manos atascada debajo de la motocicleta.

"Cuando la moto se detuvo me levanté y recogí mi casco. Estaba muy nervioso por lo que intenté sacar un cigarrillo para calmarme, y fue ahí cuando me di cuenta que me faltaba un dedo".

Una vez que llegó la ambulancia fue trasladado a un hospital pare ser sometido a una cirugía, en la que le tuvieron que amputar la mitad del anular.

Tras su recuperación, Jerry vio al doctor que trabajaría en la prótesis para su dedo. La sorpresa vino cuando escuchó la propuesta del médico, quien al enterarse que el joven era un desarrollador de software no dudó en sugerir un dedo con una memoria USB incluida.

Jalava explica que la prótesis no se encuentra de manera fija en su mano, por lo que cuando necesita usar la memoria USB sólo la retira de su dedo y la deja instalada en el puerto de la computadora.

Por cierto, el sitio web Yanko Desing, cuyo lema es "Formas más allá de lo funcional", se encarga de recibir extraños diseños sobre cómo la tecnología ayudaría de maneras fantásticas al ser humano en la vida cotidiana.

Entre sus extraños y a veces poco funcionales diseños, todos ellos inspirados en la ciencia ficción, se encuentra el YOU-SB (algo así como TU-SB), un dedo con terminación de USB que presentan como "una sarcástica visualización de cómo las computadoras y los seres humanos terminarán interactuando de todas las formas posibles en un futuro no muy lejano".

En la misma introducción al YOU-SB enfatizan que se trata de mera ciencia ficción, pero pensando en un futuro en el que los hombres puedan cambiar cualquier parte de su anatomía por funcionales gadgets.
Para su sorpresa, el mismo Jerry colocó un post en su página de internet, justo debajo de la futurista fotografía de una mano con un "Dedo-USB" integrado, diciendo: "De hecho yo tengo un dedo con una memoria USB de 2 gigabytes".

Las respuestas de asombro no se hicieron esperar.

Una empresa histórica de internet, a la deriva

Time Warner decidió librarse de AOL luego de pasar casi una década intentando crear un imperio periodístico, para terminar en una posición más débil que cuando comenzó la asociación

La separación, anunciada el jueves, permitirá que AOL surja como una empresa separada que será administrada por Tim Armstrong, ex ejecutivo de publicidad de Google Inc. Armstrong fue contratado en marzo con el propósito de restablecer el brillo de una marca que en una época era conocida como America Online.

Aunque AOL se ha visto eclipsada por Google y por otros astros de la internet, Armstrong todavía está en condiciones de crear una red de publicidad online de vasto alcance, así como sitios de AOL en la internet.

Time Warner es propietaria de un 95% de AOL y piensa comprar un 5% de las acciones de Google durante el tercer trimestre de 2009 por una cifra aún no divulgada. A partir de ese momento AOL, que cuenta con unos 7 mil empleados, se convertirá en una compañía separada que se cotizará en bolsa alrededor de fines de año.

Jeff Bewkes, director general de Time Warner, dijo el jueves que la decisión permitirá a AOL "tener un foco más concentrado y mayor flexibilidad estratégica".

Entre tanto, una vez se libre de AOL, Time Warner se concentrará en películas, redes de televisión por cable como HBO y CNN, y la publicación de revistas, entre ellas Time, People y Sports Illustrated.

En el 2001, AOL compró Time Warner por la espectacular cifra de 147 mil millones de dólares. Fue uno de los peores fracasos en la historia de las empresas norteamericanas. Entre el 2002 y el 2003, Timer Warner absorbió casi 100 mil millones de dólares en pérdidas. En un determinado momento, Time Warner eliminó AOL del nombre de la corporación.

Fuente: AP

Friday, May 29, 2009

Google pretende revolucionar la comunicación online con nueva herramienta

Presentó Wave, que permite a los usuarios dialogar y al mismo tiempo compartir documentos, enlaces y mapas en tiempo real. La respuesta a Twitter, Facebook y Friendfeed

Google Wave fue presentado durante la conferencia de desarrolladores en San Francisco Google I/O, pero recién estará disponible para su uso en los próximos meses.

La aplicación combina las funciones de Twitter, Facebook y Friendfeed en una sola ventana. Es decir, el usuario puede enviar mensajes directos a sus contactos, compartir fotos y documentos o agregar y quitar miembros a una charla.

Los hermanos Rasmussen -Lars y Yen, a cargo del desarrollo de Google Maps- dijeron que al pensar Wave se inspiraron en las dos formas más populares de comunicación en la web: el mail y la mensajería instantánea.

En Wave se agregaron funciones de otros servicios de Google, como Maps, para trabajar sobre él al mismo tiempo que se está usando otra función.

Pero no sólo las herramientas propias de Google están en Wave: Twitter, por ejemplo, también está incorporado.

El usuario final no será el único que podrá disfrutar de esta aplicación: las empresas pueden crear un entorno de trabajo colaborativo alrededor de Wave, facilitando las comunicaciones en tiempo real.

Cómo será la Web 3.0

Vint Cerf, uno de los "padres de la internet", detalló cómo será la red del futuro y qué rol jugarán los tradicionales medios impresos, en una conferencia que brindó en San Pablo.

"La web 3.0 nos llevará a la internet de las cosas, en donde todas las aplicaciones y los objetos van a tener la potencialidad de interactuar unos con otros. La clave será la interconexión total", disparó el hombre que creo hace más de 30 años los protocolos de comunicación que aún hoy utilizan los sistemas operativos para gestionar el acceso a la red de redes.

La proyección les permite a los actuales consumidores de la red ilusionarse con una internet que les concederá el control pleno de sus objetos a distancia, ya sea a través de dispositivos móviles u otras plataformas que el propio desarrollo de la plataforma se encargará de diseñar con el paso de los años.

Para ello jugarán un rol esencial los sensores, que tendrán la función de monitorear y difundir la información precisa que necesitan los consumidores finales de la red. Por ejemplo, la web 3.0 podría permitir que una persona reciba mensajes de texto en su celular con un reporte de cómo está trabajando el sistema de calefacción que tiene en su hogar. De este modo, este usuario podrá regular qué temperatura desea encontrar en su hogar para cuando deba regresar luego de su jornada laboral.

El grado de conectividad de la internet del futuro será tal, que Cerf imagina posible que alguna persona instale un censor en los corchos de los vinos que tiene en su bodega para conocer en tiempo real si el proceso de refrigeración está funcionando adecuadamente y actuar en consecuencia.

La web 3.0 permitirá también un acceso inmediato a juegos, películas y canciones a través de los clásicos dispositivos de audio y video que actualmente consumen las familias. Así, la idea de alquilar un DVD o ir al cine para ver el último estreno pasará rápidamente a los recuerdos de la evolución y desarrollo de las sociedades modernas.

"Todo va a formar parte de internet", sintetizó Cerf, quien alertó que aún existen algunos desafíos para explorar y analizar cómo se debe trabajar para que las personas "naden en un mundo de información" y encuentren verdaderamente los contenidos que desean consumir.

Todo estará en la "nube"
El desarrollo de la interconectividad en la red generará un nuevo paradigma en donde la información estará almacenada en servidores profesionales de las grandes compañías, lo que algunos especialistas del sector se han inclinado por denominar la "nube".

"La necesidad de tener programas instalados en las computadoras personales será algo del pasado. Todo estará en la nube, que ofrecerá posibilidades enormes. Ese es el camino del futuro", explicó Alexandre Hohagen, director general de Google para América Latina.

Este nuevo concepto de "nube" evade la idea de que los usuarios estén cargo de servidores individuales y deja atrás para siempre el miedo a perder información personal por una falla en el hardware o un descuido personal. Así, el acceso a la red será el nexo entre los usuarios y su propia información.

Esta idea fulmina para siempre los soportes físicos de información y nutre aún más de relevancia los dispositivos móviles, que adquirirán un rol protagónico en las vidas de las personas.

El papel, amenazado por los medios digitales
Según Cerf, también conocido como "evangelizador" de la web, este proceso de desarrollo se transformó en una amenaza de muerte para los periódicos impresos de todo el mundo, quienes se encuentran en un período de mutación a otras formas de difundir la información.

Es que las necesidades de los consumidores y la ecuación empresarial costo-beneficio confluyen para que el avance de los medios digitales de información tenga una perspectiva prácticamente inimaginable.

De hecho, hoy la red entrega un sinfín de posibilidades a los usuarios que nunca podrán ser alcanzadas por los tradicionales medios escritos. Por caso, la red permite que los consumidores de información puedan acceder a contenidos históricos al instante, o interactuar directamente con el difusor de formas que hasta hace muy poco tiempo eran inimaginadas.

Este sorprendente avance de los medios digitales generó también un gran desafío para todos los actores que forman parte de la red: cómo compensar los derechos de autor. Sucede que en la red existe una muy baja proclividad de los usuarios a pagar por acceder a los contenidos, y esto ha llevado a los especialistas a plantear el debate sobre qué deben hacer los países para legislar sobre el acceso a las redes.

Del mismo modo que se plantea este y otros interrogantes sobre la internet del futuro, habrá que preguntarse ahora cómo van a reaccionar los usuarios, las empresas y los gobiernos para estas canillas enormes de información que se abren cada día más. ¿Estarán preparados?

Microsoft presenta Bing, su nuevo buscador en Internet

La apuesta para competir con Google está diseñada con un enfoque en la experiencia del usuario y herramientas intuitivas. Vea el video

Microsoft presenta Bing, su nuevo buscador en Internet

Microsoft presentó hoy Bing.com, un nuevo motor de búsqueda para una mejor toma de decisiones, como primer paso hacia una nueva experiencia que permite tomar decisiones más organizadas a partir de la organización inteligente de los altos volúmenes de información disponibles en la Web.

Bing está diseñado específicamente a partir de los beneficios de los motores de búsqueda actuales pero profundiza esta experiencia con un enfoque de experiencia del usuario y herramientas intuitivas que ayudan al cliente a la hora de tomar decisiones.

“Existen tres pilares principales en las que Bing marcará una diferencia. Primero: solo el 25% de las búsquedas son exitosas en su primer clic, por lo que Bing ha sido diseñado para ofrecer los mejores resultados sumados a características propias como el Quick Preview y Best Match para que el usuario sepa que su clic está dirigido a lo que está buscando. Segundo: Bing organiza los resultados de las búsquedas de manera inteligente, clasificando en categorías dinámicas millones y millones de resultados, simplificando la tarea de búsqueda. Y tercero: Bing fue especialmente diseñado con especial énfasis en las 4 principales áreas de búsquedas: Compras, Viajes, Salud e Información Local/Mapas, con experiencias únicas e integradas en cada una de ellas”, declaró Martín Spinetto, Gerente de Marketing para los Servicios Online de Microsoft Hispanoamérica.

El resultado de este nuevo enfoque es un primer paso importante hacia un nuevo y más consolidado tipo de servicio en cuanto a búsquedas, denominado por Microsoft “motor de decisiones”, y que fue diseñado para facilitarles a las personas los conocimientos y datos necesarios para poder tomar decisiones clave con mayor rapidez.

El crecimiento explosivo de los contenidos en línea ha sido constante, y Bing ha sido desarrollado como una herramienta que ayuda a la gente a navegar con mayor facilidad en el contexto de altos volúmenes de información, tal como suele suceder con la mayoría de las experiencias actuales que involucran búsquedas.

Aquí, un video provisto por Microsoft:

Los resultados de un estudio personalizado realizado por ComScore, que abarcó a los principales motores de búsqueda, demostraron un índice del treinta por ciento de abandono de búsquedas sin un resultado satisfactorio. Los datos también demostraron que aproximadamente dos tercios del resto de las búsquedas requirieron una búsqueda avanzada o una repetición de la búsqueda en la página de los resultados.

Los motores de búsqueda actuales se han concentrado más en aportar información y menos en la utilidad de dicha información”, afirmó Steve Ballmer, CEO de Microsoft. “Cuando comenzamos con el desarrollo de Bing, nuestro punto de partida fue comprender bien a nuestros clientes y sus necesidades. Bing es un avance importante en nuestra visión a largo plazo para ofrecer innovaciones en el campo de las búsquedas en internet que permitan a las personas hallar información de manera rápida y utilizarla para completar tareas y tomar decisiones más certeras”.

El nuevo servicio, disponible en Bing.com, comenzará a presentarse en los próximos días y se implementará por completo a nivel mundial el miércoles 3 de junio. En Latinoamérica, la versión beta estará disponible en esta fecha con mejoras en la relevancia de las búsquedas, cambios en la página principal así como en la experiencia de usuario. Más funcionalidades serán visibles en los próximos meses.


Nuevo enfoque
En base a la respuesta de los clientes, que el 66 por ciento de la gente utiliza las búsquedas en Internet más frecuentemente para tomar decisiones complejas, Microsoft identificó tres metas en cuanto al diseño que sirvió de guía para el desarrollo de Bing: presentar resultados excelentes, ofrecer una experiencia más organizada simplificando las tareas, y brindar información para tomar decisiones más rápidamente.

El nuevo servicio, ideado para ir más allá de la experiencia actual en búsquedas, comprende innovaciones profundas en las principales áreas de búsqueda como la captación y expansión de entidades, el reconocimiento de la intención de la consulta y tecnología para el resumen de los documentos, como también, un nuevo modelo de experiencia para el usuario que se adapta dinámicamente al tipo de consulta con el objeto de proporcionar herramientas relevantes e intuitivas para la toma de decisiones.

Más información en http://www.discoverbing.com/behindbing/

Thursday, May 28, 2009

La corona de performance de los SSD, reclamada por un desconocido

Una compañía denominada Fusion-io está ofreciendo un nuevo producto llamado ioDrive Duo, el cual es –según la empresa– el disco de estado sólido (SSD) más innovador y más veloz del mundo. El producto sería capaz de ofrecer 6 Gb/seg. de ancho de banda real y 500.000 operaciones de lectura por segundo cuando se utilizan 4 unidades en paralelo.

David Flynn, vocero de Fusion-io, dijo en un comunicado que “muchos administradores de bases de datos y de sistemas están encontrando que las redes de almacenamiento (SAN) son demasiado costosas y no cumplen con las expectativas en cuanto a performance, protección y utilización de la capacidad. Es por eso que más y más vendors de aplicaciones están apuntando a almacenamiento de estado sólido centrado en la aplicación. El ioDrive Duo ofrece a las empresas las ventajas del almacenamiento centrado en la aplicación sin necesidad de programación específica de la aplicación”.

El ioDrive Duo se instala en slots PCI Express x8 ó x16 y puede sostener hasta 20 Gb/seg. de rendimiento “crudo”. La compañía señala también que puede mantener fácilmente 1,5 Gb/seg. de ancho de banda de lectura y cerca de 200.000 IOPS (operaciones de lectura/escritura por segundo). El ancho de banda real sostenido para lectura es de 1.500 MB/seg, mientras que el de escritura es de 1.400 MB/seg.

El nuevo producto de Fusion-io ofrece además detección de errores multi-bit, corrección y protección de memoria flash utilizando redundancia N+1 a nivel de chip y auto-curación on-board. El producto puede configurarse para espejado RAID-1 entre dos módulos ioMemory en la misma placa ioDrive Duo PCIe.

Las nuevas placas estarán disponibles a partir del próximo mes de abril con 160, 320 y 640 GB de capacidad. Una versión de 1,28 TB saldría al mercado durante la segunda mitad del año.

Nvidia estaría planeando su desembarco en el mercado de CPUs

Los rumores sobre la posibilidad de que Nvidia ingrese al mercado de procesadores de propósito general (CPUs) vienen circulando desde el año 2000, si bien la compañía nunca confirmó tales planes. Pero ahora que las intenciones de la empresa han sido reafirmadas, parece que Nvidia ha estado trabajando por algún tiempo en el desarrollo de una CPU, o al menos, de una serie de tecnologías relacionadas.

Las unidades de procesamiento gráfico (GPUs) y las unidades centrales de proceso (CPUs) no tenían nada en común hace una década, pero los enormes avances realizados en materia de diseño de chips gráficos, al igual que la evolución de las CPUs, han causado que ambos mundos se acercaran considerablemente: las GPUs son actualmente mucho más programables que hace unos años, mientras que los microprocesadores contienen múltiples núcleos, controladores de memoria integrados y, en un futuro próximo, unidades de procesamiento gráfico. La convergencia entre CPUs y GPUs podría compararse con la convergencia entre computadoras personales y productos electrónicos para el consumidor.

Nvidia comprende completamente tal convergencia y se ha estado preparando para ingresar al mercado de microprocesadores de propósito general durante varios años.

En primer lugar, Nvidia se unió al HyperTransport Consortium en la época en que la tecnología se denominaba Lighting Data Transport y era conocida principalmente como un bus universal para CPUs innovadoras de AMD. Esto permitió a Nvidia obtener un bus para sus potenciales microprocesadores y otros chips, además de abrirle las puertas al mercado de chipsets, primero para plataformas AMD y luego para plataformas Intel.

En segundo lugar, Nvidia ingresó al consorcio de tecnología de proceso de silicio en aislante (Silicon on Insulator). Si bien esta tecnología puede usarse para producir diversos componentes y chips, se la utiliza principalmente para construir complejos microprocesadores de vanguardia basados en arquitecturas x86, ARM o Power.

En tercer lugar, Nvidia reemplazó en enero de este año a su científico en jefe David Kirk, poniendo en su lugar a William Dally, conocido por su experiencia en tecnologías de computación paralela y por su trabajo en los microprocesadores del estilo Cell y Larrabee. Algunos señalan incluso que Nvidia ha estado contratando especialistas en microprocesadores por varios años, con lo cual la contratación de Dally podría ser sólo parte de una plan más ambicioso para incorporar personal experimentado en CPUs.

Ahora que la compañía cuenta con los especialistas, los permisos para usar el bus HyperTransport y un cierto grado de experiencia en tecnologías de proceso SOI, parece claro que está trabajando en el diseño de nuevas CPUs o de dispositivos “todo en uno” de tipo system-on-chip (SoC) con microprocesadores en su interior.

En este punto, cabe preguntarse cuándo Nvidia planea lanzar un chip que compita con AMD y con Intel. La respuesta es simple: una vez que AMD e Intel conquisten completamente el mercado de plataformas al integrar componentes cruciales de sistema en sus microprocesadores, no habrá lugar para Nvidia. Una vez que esto pase, tendrá sentido para esta última comenzar a promover sus propias plataformas, con sus propias CPUs o SoCs; cosa que puede ocurrir en un plazo no muy largo.

Captan un extraño fenómeno al romper la barrera del sonido

La imagen registra un anillo de vapor de agua formado alrededor de un F/A-18F Super Hornet, durante una exhibición aérea realizada en la ciudad de Nueva York

Foto: Reuters

La potente aeronave, comandada por los pilotos Justin Halligan y Michael Witt, superó las 200 millas por hora por encima de la barrera del sonido, mientras participaba del "New York Air Show" en la Playa Jones de Wantagh.

El fenómeno se produce cuando un avión se acerca a la velocidad del sonido, ya que la forma en que el aire fluye alrededor de su superficie cambia y se convierte en un fluido compresible, dando lugar a una resistencia mayor.

El efecto observado se denomina "nube de Prandtl-Glauert" y algunas veces se produce también otro fenómeno óptico conocido como "Gloria", cuando pueden apreciarse también colores.

El nombre del fenómeno está dado por el inglés Hermann Glauert y el alemán Ludwig Prandtl, ambos físicos pioneros en el campo de la aerodinámica.

Wednesday, May 27, 2009

Google empieza a ver competencia en Facebook

Si bien es el rey de las búsquedas en la web, dos ejecutivos de la empresa explicaron que las redes sociales se están convirtiendo en competidoras debido a que los usuarios prefieren respuestas de personas conocidas

Los usuarios de internet buscan cada vez más respuestas a sus preguntas y no quieren simplemente una lista de enlaces como respuesta a su búsqueda en línea.

Cuando la gente busca consejos en internet para tomar decisiones personales cotidianas, la lista básica de hipervínculos que arroja Google como resultado no se ve tan confiable o íntima, dijo el gerente de producto de Google Ken Tokusei.

Para elegir un restaurante u otro sitio, los sitios de redes sociales o de reseñas tienen ventaja sobre el buscador, agregó.

Esos sitios ofrecen información de amigos o conocidos y Tokusei dijo que los usuarios suelen confiar más en esa información que en los resultados de Google.

"No hemos llegado a una etapa en que nuestros resultados se vean como si vinieron de alguien a quien conoces", dijo.

El gigante de las búsquedas ha comenzado a ofrecer herramientas para que el público pueda calificar los resultados y borrar vínculos irrelevantes, pero todavía tiene camino que recorrer, agregó.

A medida que los usuarios de internet se vuelven más sofisticados y experimentados, también esperan respuestas más precisas a sus búsquedas.

Hay sitios como WolframAlpha, lanzado este mes, que rastrean la internet en busca de datos y los analizan para dar respuestas específicas, en lugar de una lista de sitios.

Google hace algo así con algunas búsquedas, como cuando brinda precios al buscar "acciones de Sony" o una respuesta a "capital de Túnez". Sin embargo, sigue y seguirá ofreciendo la conocida lista de sitios para investigar más.

"Es una cuestión de determinar qué tipo de información busca el usuario. Pero siempre presentaremos algunos hipervínculos a otros sitios con nuestros resultados", dijo Tokusei, en conversación con periodistas en la sede japonesa de Google en Tokio.

El portavoz habló con los periodistas en la sede de Google en Tokio, donde explicó las herramientas básicas de Google.

Fuente: AP

Unión Europea quiere derechos abiertos en internet

Es para que las tiendas online no tengan que solicitar licencias a cada uno de los países en donde se desea ofrecer el servicio de descarga de música

Las descargas de música en Europa van a la zaga de los Estados Unidos, lo que representa una fracción de los ingresos que la industria disquera pierde debido a la contracción en la venta de CD.

Parte del problema en Europa es que los derechos de autor son vendidos separadamente en cada país, lo que ha impedido a iTunes, de Apple, crear un solo comercio que atienda a toda Europa.

En lugar de ello, ha tenido que solicitar licencias en cada uno de los estados miembros de la UE donde desea ofrecer su servicio y crear diferentes comercios musicales con selecciones de música separadas.

La comisionada de Competitividad de la UE Neelie Kroes dijo que las conversaciones de los reguladores con del sector de la música significa que la sociedad francesa de autores SACEM y la casa disquera EMI están dispuestas ahora a vender sus derechos en toda Europa.

Apple dijo a la comisionada de la UE que ofrecerá música a todos los clientes europeos si logra un acuerdo de derechos en toda la zona comunitaria.

Agregó que la escasa importancia del mercado en algunas naciones europeas no justifica en la actualidad los gastos y esfuerzos necesarios para abrir un comercio y que contemplaría la posibilidad de abrir comercios en la web en Europa oriental si fuese más fácil cumplir los requisitos de los derechos de autor.

Los cibernautas de las 12 naciones del bloque en la Europa oriental que se sumaron a la UE desde 2004 no pueden ingresar al servicio iTunes.

Kroes dijo que existe ahora "una rotunda disposición" de los grandes protagonistas de la música en la web para solucionar estos problemas. La comisionada pidió a las sociedades de autores -llamadas también sociedades cobradoras- "que se apresuren a adoptar sus soluciones de licencias al medio ambiente de la internet" y prometió revisar esos avances.

La declaración fue algo más que una advertencia velada. La Comisión Europea dijo a las sociedades cobradoras en julio que pusieran fin al sistema de contratos que permiten a los artistas recibir pagos solamente del organismo basado en su propio país.

Falló además en contra de las 24 sociedades europeas de cobro al encontrarlas culpables de violar las leyes antimonopólicas de la UE, aunque no les impuso multas. Las sociedades recaudadoras son miembros de la CISAC, Conferencia Internacional de Sociedades de Autores Compositores.

Fuente: AP

Facebook vende una porción de sus acciones

Una compañía de inversión tecnológica compró el 1,96% de la red social por u$s200 millones, lo que la valora en u$s10 mil millones

Digital Sky Technologies, que tiene sedes en Londres y Moscú, compró acciones preferentes, según el anuncio conjunto.

Digital Sky también planea comprar al menos u$s100 millones de títulos comunes de Facebook a los actuales accionistas, para dar liquidez a empleados con derechos a papeles de Facebook.

Mark Zuckerberg, presidente ejecutivo de Facebook, dijo en un comunicado que varias firmas se acercaron a la compañía, pero que Digital Sky se impuso "por la perspectiva global que trae, respaldada por el impresionante crecimiento y los logros financieros de sus inversiones en internet".

Digital Sky posee intereses significativos en compañías de internet rusas y de Europa del Este, incluidas Mail.ru, Forticom y vKontakte, según la compañía.

Facebook tiene más de 200 millones de usuarios activos. En el 2007, Microsoft invirtió u$s240 millones en la compañía, valorándola entonces en u$s15 mil millones.

Fuente: Reuters

Tuesday, May 26, 2009

Una herramienta milagrosa de Windows 7: el grabador de pasos de problemas

Cualquiera que haya trabajado ofreciendo soporte técnico a usuarios se habrá topado con la dificultad de lograr que el usuario describa con claridad el problema al que se enfrenta. La mayoría de las veces no es culpa del usuario, lo que ocurre es que suele ser difícil describir con palabras lo que aparece en pantalla. Por suerte el software Problem Steps Recorder de Windows 7 aparece con la intención de solucionar este inconveniente.

La herramienta Problem Steps Recorder de Windows 7 es básicamente una variante avanzada de un software de captura de pantalla. Puede pensarse en ella como un “Print Screen” automatizado, que cuenta con la ayuda de un pequeño robot que opera en segundo plano documentando todos los clicks del mouse y todas las teclas presionadas, y reuniendo algo de información técnica. Luego recoge toda la documentación y la almacena en un prolijo paquete. Dicho paquete es una página de informe MHTML comprimida que puede enviarse directamente a los operadores de una mesa de ayuda.

La página de informe resultante es donde se notan los beneficios de esta herramienta. Dicha página es en realidad un documento XML en el que se detallan cada una de las acciones del usuario, junto con una captura de pantalla con el ítem resaltado. Puede verse el informe tal como es, o bien como una presentación de diapositivas. También puede examinarse el documento XML para obtener más detalles, como por ejemplo las coordenadas X e Y del mouse.

Para poner a prueba el Problems Steps Recorder, simplemente se debe tipear psr.exe en la línea de búsqueda del menú Inicio de Windows 7.

En la ventana de la aplicación, puede cambiarse la configuración seleccionando la opción Settings. Los parámetros de configuración que pueden cambiarse son: Output Location (ubicación de los archivos de reportes), Enable screen capture (habilitar captura de pantalla; el usuario puede optar por no incluir capturas de pantallas en los informes si, por ejemplo, no desea que en éstos se vea su información personal) y Number of recent screen captures to store (número de capturas de pantalla a almacenar).

Para comenzar a registrar los pasos de un problema, se debe hacer clic en Start Record, y luego comenzar a realizar los pasos que llevan a la ocurrencia del problema.

Durante la grabación, se activan tres controles: Pause Record (hace una pausa en la grabación; ésta puede luego retomarse), Stop Record (detiene la grabación) y Add Comment. Esta última opción permite agregar un comentario escrito asociado a un sector de la pantalla. Al seleccionar Add Comment, aparece una ventana donde se puede escribir el comentario, luego de marcar en la pantalla el sector que se asocia a dicho comentario.

Al detener la grabación (con el control Stop Record) aparecerá una ventana de diálogo para grabar el archivo .zip que contendrá el informe en formato MHTML. En este punto se debe tipear un nombre para el archivo y hacer clic en Save. Luego el informe estará listo para enviarse al personal de mesa de ayuda, tomándolo de la ubicación antes seleccionada como Output Location.

Windows 7 no incluirá reproducción nativa de discos Blu-ray

A pesar de que el formato de discos ópticos Blu-ray Disc (BD) es actualmente el único en el mercado que admite contenidos de alta definición, Microsoft no planea ofrecer soporte nativo para su reproducción en Windows 7. Sin embargo, el nuevo sistema operativo soportará grabación en medios Blu-ray.

“La reproducción de Blu-ray será provista por los fabricantes de las PCs o los fabricantes de las unidades BD”, dijo Steven Sinofsky, vicepresidente senior del grupo de ingeniería de Windows y Windows Live en Microsoft, en un comunicado publicado por el sitio web Windows 7 Center (http://windows7center.com). “Tenemos una nueva extensibilidad en Media Center para aquellos que proveen reproducción de BD, para soportar reproducción integrada”.

Microsoft siempre soportó al competidor de Blu-ray, HD DVD, y criticó el formato desarrollado por Sony y otras compañías. Sin embargo, la razón de la falta de soporte para Blu-ray en Windows 7 no parece ser ideológica (de otra forma, Windows 7 no permitiría ni siquiera grabar discos BD), sino más bien una cuestión de las regalías que la Blu-ray Disc Association exige a los fabricantes de reproductores. Como resultado, Microsoft ofrece a los fabricantes de unidades de discos ópticos y a los proveedores de computadoras personales incluir software para reproducir Blu-ray junto con sus productos.

Panasonic, Philips y Sony, siendo dueños de la mayoría de las patentes de la tecnología Blu-ray Disc, están actualmente trabajando con otros poseedores de patentes para establecer un esquema integral de licenciamiento para productos BD. Se estima que las tarifas de las licencias para nuevos productos se situarán en U$S 9,5 para los reproductores de Blu-ray Disc (antes era de U$S 30) y de U$S 14 para las grabadoras de BD.

Seagate y AMD demostraron una nueva generación de Serial ATA

Las dos empresas llevaron a cabo el lunes pasado una demostración de una nueva interfaz Serial ATA corriendo a una velocidad de 6 Gb/seg. Denominada Serial ATA-600, la nueva interfaz es mucho más veloz que sus predecesoras, y mantiene compatibilidad retroactiva con éstas, pudiendo utilizar los mismos cables y conectores para facilitar la integración.

“La interfaz SATA de 6 Gb/seg. cubrirá la demanda de PCs de mayor ancho de banda”, dijo Joan Motsinger, vicepresidente de marketing y estrategia de sistemas personales en Seagate. “La empresa posee una larga historia de ser la primera en salir al mercado con nuevas tecnologías tales como Serial ATA, grabación perpendicular y auto-encriptación, y está complacida de asociarse con AMD para poner en escena la primera demostración pública del almacenamiento SATA de 6 Gb/seg”.

La interfaz Serial ATA-600 entregará velocidades de ráfaga de hasta 600 MB/seg, manteniendo compatibilidad retroactiva con las interfaces SATA 150 y SATA 300, y utilizando los mismos cables y conectores que las generaciones anteriores de Serial ATA para facilitar la integración. La tercera generación de la interfaz de almacenamiento también mejora la eficiencia energética y la funcionalidad Native Command Queuing (NCQ), lo cual mejora a su vez la performance general del sistema, particularmente en aplicaciones con gran carga transaccional, tales como modelado científico, simulaciones y diseño de ingeniería.

La demostración llevada a cabo por Seagate y AMD utilizó dos discos rígidos de Seagate: un Barracuda 7200.12 con interfaz Serial ATA-300 y un prototipo de Barracuda con interfaz Serial ATA-600; ambos corriendo sobre una misma PC. Dicho equipo incluía un prototipo de chipset de AMD capaz de soportar la interfaz Serial ATA-600. Al mostrar la performance de cada interfaz de almacenamiento en el monitor del equipo, se veía que el disco Seagate con interfaz SATA-300 superaba los 250 MB/seg., mientras que el disco con interfaz SATA-600 superaba los 550 MB/seg.

Monday, May 25, 2009

Kingston prepara un kit DDR3 de 24 GB para PCs de escritorio

La empresa realizó una demostración de un equipo de escritorio con 24 GB de memoria RAM, a la vez que anunció para más adelante este año la distribución de un kit de módulos de memoria de 24 GB bajo la marca ValueRAM, destinado a usuarios que emplean software extremadamente exigente o corren numerosas máquinas virtuales en sus PCs de escritorio.

Para demostrar sus módulos de memoria DDR3 de 4 GB, Kingston usó un sistema basado en el microprocesador Intel Core i7 920, una placa Gigabyte GA-EX58-UD5 y una placa gráfica Nvidia GeForce. El sistema tenía funcionando el software VMware Workstation, junto con 9 clientes VM y una copia del juego Crysis.

La demostración tuvo un mensaje claro: cuando diez computadoras corren en un único equipo, consumen una gran cantidad de memoria, con lo cual 24 GB no son una exageración. Existen numerosas aplicaciones de software para profesionales que podrían beneficiarse de tal cantidad de memoria, aunque no muchos usuarios finales las ejecutarían en las PCs de sus hogares.

El kit demostrado por Kingston se compone de seis módulos de 4 GB de SDRAM DDR3 operando a 1079 MHz, con latencia CL7 7-7-20 en modo triple canal. Los módulos están basados en chips de memoria de 4 Gb construidos bajo la tecnología de proceso de 50nm recientemente develada por Samsung Electronics.

Kingston informó que los kits de 24 GB de memoria DDR3 estarán disponibles más adelante este año. La compañía no dio a conocer el precio al que se ofrecerá el kit.

IBM patenta un método para esquivar balas

La patente (que lleva el nombre Bionic Body Armor) presenta un método que, en teoría, podría funcionar. Un sensor externo escanea el área en busca de proyectiles dirigidos hacia el usuario. Si detecta uno, primero calcula la trayectoria y la velocidad del proyectil. Luego, con esa información, evalúa la dirección óptima hacia donde el usuario debería moverse para esquivarlo. Finalmente, encuentra los músculos responsables de realizar el movimiento y, gracias a múltiples estimuladores musculares, la armadura biónica logra que la persona se quite de la trayectoria del proyectil. Tal como lo hace Neo en The Matrix.

Cuando decimos estimuladores musculares, léase: “cositos que envían pequeñas cantidades de electricidad a los músculos responsables del movimiento necesario”. El movimiento, entonces, sería automático e inconsciente, sin importar el estado físico del portador.

En primera instancia se necesitaría de un sensor externo que monitoree el “tráfico de proyectiles”. Es que la patente no está pensada para la gente común sino para (como se lee en la patente), “ciertos individuos que estén expuestos a la amenaza de asesinatos debido a su estatus en la sociedad. Ejemplos de esos individuos incluyen, pero no están limitados a, políticos de alto rango, clérigos, exitosos emprendedores industriales y personal militar”.

La idea es que si, por ejemplo, Bush Jr. debe aparecer en público, los sensores cubran un área prefijada para su presentación. Es decir que la Bionic Body Armor no es para ir por la calle, haciéndose el Rambo, sino para protección. Sin embargo, si este tipo de tecnología progresa y demuestra su valía, sería de extrañar que se perfeccione al punto de que sea independiente de accesorios externos.

Alerta: falsos correos de Facebook pueden destruir tu máquina

El avance tecnológico de las nuevas redes de comunicación, y la popularidad que han ganado, hace que los ciberdelincuentes focalicen toda su creatividad y perspicacia en estas comunidades. En los últimos días han aparecido mensajes falsos que utilizaban a la red social como pantalla. No es la primera vez que un correo electrónico armado ingeniosamente para que parezca provenir de una fuente supuestamente segura, logre engañar a los usuarios para robarles sus contraseñas o hasta su identidad.

Uno de los engaños surgidos en Facebook se hacía pasar por un mensaje enviado por un amigo conteniendo un aviso. El mismo decía que el usuario había violado los "Términos y Condiciones de uso del sitio" y por consiguiente se le iba a dar de baja.

Si se seguía el enlace en el correo recibido que ofrecía "Más información", la víctima era dirigida a un sitio web falso, muy similar al original, donde se le pedían datos confidenciales. Posteriormente, con esa información, se generaban otros mensajes falsos para todos los contactos del perfil vulnerado.

Otro ataque más directo utilizado por los criminales, fue subir a Facebook una herramienta que simulaba realizar una cierta acción, pero robaba detalles del usuario con métodos de ingeniería social. Esta herramienta y otras también sospechosas, parecen haber sido removidas por el personal encargado de la web social.

Además de esto, los creadores de malware aprovecharon la oportunidad de la noticia sobre este problema, para que en los resultados de búsquedas relacionadas, fueran incluidos sus sitios maliciosos. De esta manera cualquier visitante era infectado por un falso antivirus.

Es importante tener en cuenta que las aplicaciones que pueden encontrarse en Facebook y que no son originales del sitio, fueron desarrolladas por terceros y no han sido verificadas. El usuario si desea utilizarlas debe hacerlo bajo su propio riesgo.

Por
Rocío Bravo en ITSitio.com

Sunday, May 24, 2009

10 tendencias para un “mundo conectado”, según Huawei

En los últimos diez años, la industria de las telecomunicaciones ha crecido y empezado a cambiar sus patrones familiares del pasado. Estos cambios han sido originados de las necesidades de los clientes, los cambios en la tecnología y el nacimiento de nuevos modelos de negocio. Como uno de los grandes vendors del sector, Huawei está en una privilegiada posición para tener un acercamiento a los divergentes mercados globales de las telecomunicaciones, y aquí comparte su visión de hacia dónde se dirigen.

El concepto de un mundo conectado ha sido discutido por algún tiempo, pero ahora estamos viendo el resultado en la vida diaria. Manejado por el rápido despliegue de nuevas tecnologías y requerimientos emergentes del usuario, la frontera entre software, TI y comunicaciones se ha desvanecido. Agregados a los operadores tradicionales de telecomunicaciones, están los proveedores de servicio y contenidos de las industrias de Internet, medios y entretenimiento y estos jugadores tendrán un gran impacto en la industria. Huawei tiene la firme creencia que el futuro mundo conectado será profundamente influenciado por la:
  • Saturación de la penetración móvil: al final de 2008, el número de suscriptores móviles llegó a los 3.500 millones y las proyecciones muestran que alcanzarán 5.000 millones en tan solo unos cuantos años, igualando el total de usuarios potenciales. Más de 1.000 millones de estos nuevos usuarios vendrán de mercados emergentes y esto resultará en un mundo que está completamente interconectado y será capaz de unir la brecha digital.
  • Banda ancha omnipresente: los próximos años verán el rápido despliegue de la banda ancha móvil de alta velocidad y un gran cambio a velocidades aún más rápidas para banda ancha fija. Para el año 2013, serán agregados 300 millones de usuarios de banda ancha fija, duplicando el total de hoy en día y, a través del despliegue de FTTX, tendrán acceso a cantidades masivas de información. En la parte móvil, 1.200 millones de nuevos usuarios serán agregados a los 200 millones de usuarios actuales como resultado de las tecnologías HSPA (High Speed Packet Access). La disponibilidad de banda ancha permitirá la convergencia de “3 Pantallas” (Televisión, PC y dispositivos móviles), con emocionantes oportunidades para constante comunicación.
  • “Cloud computing”: a medida que las conexiones de alta velocidad se volvieron populares para los usuarios fijos y móviles, existe la oportunidad de proveer servicios que antes no estaban disponibles a través de “La Nube”. Las oportunidades de lo que se está conociendo como Cloud Computing son enormes. La habilidad de ofrecer acceso de información sofisticada a usuarios finales, sin la necesidad de adquirir costosos software y hardware, similar a la manera de cómo utilizamos la electricidad hoy en día, sin la necesidad de comprar nuestros propios generadores y diesel, eliminará las fronteras entre sociedades con y sin información. En los próximos años, la “cluod computing”, sobrepasará la discusión de conceptos y tecnologías y estará altamente disponible.
  • Una inundación digital: en los 5.000 años de historia registrada, la humanidad ha generado el equivalente a 5 exabytes (1.018 bytes) de información escrita, pero durante el 2006, fueron generados más de 280 exabytes de contenido digital. Impulsados por contenido de alta definición, tridimensional y generado por usuarios, el volumen anual de información digital alcanzará próximamente 1.000 exabytes, una verdadera inundación digital. Las ramificaciones de la infraestructura de información y de redes será inmensa, con un tráfico anual creciendo por 10 o hasta 100 veces.

Conforme nos adentramos a este mundo conectado, los factores discutidos tendrán impactos prácticos reales en la industria de las telecomunicaciones. Los mercados emergentes se convertirán en un importante factor en la expansión de la industria, pero la disminución del ARPU (Average Revenue Per User o ingresos medios por usuario) actuará como un estimulante para las soluciones creativas. Descubrir estas oportunidades, proveer productos, servicios y soporte a los operadores para enfrentar las tendencias emergentes y manejar exitosamente los impactos serán la clave del éxito futuro.

Huawei considera que las 10 principales tendencias son:

  1. Transformación All-IP: los operadores están gastando miles de millones de dólares cada año para la expansión de redes, pero no pueden aún cubrir la demanda existente. Nosotros creemos que la única manera de construir redes eficientes en costo, flexibles y expandibles es, cambiar rápidamente a All-IP para banda ancha. Esto aplica tanto para redes fijas, done la integración de fibra de alta capacidad y cobre serán comunes, como para redes inalámbricas, donde la misma red IP manejará voz, datos, señalización y media. En ambos casos, también se requiere cambiar las capas de control a All-IP para “aplanar” las redes y alcanzar los objetivos de CAPEX y OPEX.
  2. All-IP “Carrier-Grade”: a medida que las redes cambian a All-IP se hace evidente que la tecnología IP orientada a Internet no cubre las necesidades de entrega en tiempo real demandadas en las redes de voz. Para cumplir con estas demandas se requerirá una nueva clase de soluciones. Estas soluciones asegurarán comunicaciones extremo a extremo de alta calidad con confiabilidad y mantenibilidad “carrier–grade”. Sin estos avances los operadores no podrán crear las redes All-IP necesarias para enfrentar los retos de un mundo conectado.
  3. Deterioro del ARPU: con la mayoría del crecimiento futuro proveniente de los mercados emergentes, los requerimientos de bajo ARPU de estos mercados forzará a los operadores a adoptar soluciones creativas que capturen el mercado, al mismo tiempo que mantengan la rentabilidad. Como ejemplo, el 72% de la población de India está en zonas rurales, donde actualmente la penetración de la telecomunicación es tan solo del 13%. Esta es una maravillosa oportunidad, ¡pero el ARPU es de u$s 3-5 por mes! Claramente, las redes y terminales de bajo costo serán clave para que los operadores desarrollen servicios y obtengan beneficios.
  4. Entrega de banda ancha móvil: el uso explosivo de aparatos móviles para conexiones de alta velocidad es una de las fronteras más emocionantes en las telecomunicaciones. Funcionalidades que antes solo estaban disponibles de conexiones cableadas de banda ancha, pueden ser ahora utilizadas desde aparatos móviles, abriendo así nuevas aplicaciones basadas en ubicación, estatus o, aún, la proximidad de los amigos. Entregar esta experiencia de información de alta velocidad a usuarios móviles, tiene un número de retos que se deben superar. Cuando el ancho de banda de la red alcanza 100M, la densidad de las estaciones base aumentará hasta 50 veces. Nuestras consultorías con operadores, nos han demostrado que la creciente complejidad de la selección de sitios, la red de transmisión, los esquemas de señalización y la operación y mantenimiento, se están convirtiendo en una seria carga. Optimizar la cobertura de una Metrozona, la minimización de estaciones base, la transmisión en paquetes, así como la organización de las redes, etc., potencialmente puede restringir el desarrollo de la banda ancha móvil. Desde 2006, Huawei se ha enfocado en la minimización de las estaciones base, soportar las redes de transmisión basadas en paquetes y el “plug-and-play” de redes que se organizan solas. Estas capacidades han resultado exitosas cuando se trata de resolver problemas de cobertura en las Metrozonas.
  5. Avances en “SingleRAN”: el rápido y continuo crecimiento en los usuarios, junto con el crecimiento de los requerimientos de banda ancha móvil y los avances en la tecnología de banda ancha, resultarán en un complejo ambiente de redes de radio. Mientras los operadores respaldarán la demanda del mercado, desplegando nuevas tecnologías de adio, como el LTE (Long Term Evolution), deben continuar apoyando por muchos años las redes existentes GSM, EDGE, UMTS y HSPA. Más que construir una compleja red “vertical” de radios separados, lo que se necesita es una red de radio integrada “horizontal” que soporte voz, datos de banda angosta y banda ancha móvil. Huawei ha liderado el concepto “SingleRAN” para cubrir esta necesidad. Con alrededor de 10.000 de estas estaciones base de cuarta generación desplegados por O2 en Alemania, los ahorros TCO (Costo de propiedad) de hasta 30% y la capacidad de evolución suave están demostrando rápidamente ser una combinación ganadora.
  6. Redes de escala Tera: el crecimiento repentino de tráfico de datos continúa excediendo la capacidad de las redes de telecomunicación tradicionales. El modelo de las redes para países desarrollados de Europa Occidental, sugiere que el crecimiento de la información y la transformación de las redes a arquitecturas planas, All-IP, pronto necesitarán redes de transporte Tera-bit extremo a extremo. La sed de capacidad será aún mayor para países como China y Estados Unidos que tienen gran población y requieren de amplia cobertura geográfica. Nosotros creemos que construir una red de transporte “Tera-Scale” se convertirá en u requerimiento de competitividad para operadores líderes en el mundo. Con una extremadamente alta extendibilidad, la solución IPTime de Huawei tiene la capacidad de 80T como un Router Cluster System, la cual tendrá alcances aún más superiores con el desarrollo de tecnologías de interfaz de 100G. Su adopción del plano de control unificado permite interacciones impecables entre la capa IP y la capa óptica. Esta arquitectura puede ofrecer mayor eficiencia de transporte, incrementando el retorno de inversión y mejorando la competitividad de los operadores en la era de la banda ancha.
  7. Nuevos modelos de negocio de voz: los operadores actuales de redes móviles reciben el 70% de sus ingresos a partir de servicios de voz, una categoría de mercado que está siendo presionada por una continua disminución en el ARPU. Hay un movimiento natural enfocándose hacia un ingreso más atractivo proveniente de datos y servicios, pero esto pasa por alto un elemento crítico de las preferencias del usuario. La voz representa la manera más natural, eficiente y conveniente de adquirir información que se acopla a todos los escenarios y entornos. Cómo capitalizar en esto y cómo apalancar la voz como el nuevo canal para comunicación y adquisición de información, como lo es la Web, se ha convertido en una de las proposiciones técnicas más debatidas y más difíciles. Es nuestra creencia que existe un enorme mercado potencial qué explotar en la voz. Nuevos modelos de negocios son la respuesta a esta necesidad. Una buena ilustración sería el servicio “Best Tone” ofrecido por China Telecom. Una innovación líder en el mercado y un servicio de rápido crecimiento, “Best Tone” se ha convertido en un factor significativo para el crecimiento de los ingresos por voz de los operadores.
  8. Creación de valor en banda ancha: mientras la Ley de Moore ayudará a disminuir el costo, tamaño y consumo del equipo requerido para manejar los incrementos masivos en el tráfico de datos en la banda ancha, no puede seguir el ritmo del crecimiento proyectado. El crecimiento del equipo requerido resultará en crecimientos significativos en gastos de capital y operaciones, los cuales no se podrán recuperar de los ingresos del tráfico básico de datos. Para enfrentar este reto, los operadores necesitarán un manejo inteligente del tráfico para mejorar el uso del ancho de banda, emparejado con el análisis del comportamiento del usuario en base al tráfico para generar ingresos adicionales a través de propaganda dirigida u otros nuevos modelos.
  9. Servicios de contenido y medios: hoy en día la red está transformándose de ser un vehículo de comunicaciones a ser una infraestructura que sostiene todos los elementos de la sociedad. Esto conducirá a un mercado de un millón de dólares para negocios que brindan servicios a través de Internet. A medida que el nuevo potencial se despliega, los operadores líderes están todos buscando una transformación para agregar servicios de contenido y medios, además de sus ofrecimientos tradicionales de transporte. Los campos de contenido y medios requieren nuevas capacidades, habilidades y niveles de interacción del usuario que representan un reto para los operadores tradicionales. La experiencia del servicio, el método de desarrollo y el modelo de negocios son dramáticamente diferentes y las interacciones basadas en comunidades surgen como rasgo fundamental de futuros servicios. Contenido manejado y creado por el usuario será el tema predominante y un gran número de ofertas personalizadas entrarán al mercado basadas en la teoría “Long Tail”. Estas ofertas se nutrirán por el carácter cambiante de la red, donde las pronunciadas caídas en el costo de los servicios harán posible que las ofertas de nicho ganen. Un ejemplo pueden ser las publicaciones: tradicionalmente el costo de un libro podía ser recuperado solamente si miles de copias eran vendidas. Con las nuevas capacidades de la red, el mundo digital incrementa la competencia, resultando así un ecosistema caracterizado por reducciones radicales de costo, a veces hasta cero, haciendo que los libros en línea sean un negocio rentable, aunque el volumen sea pequeño.
  10. Computación Virtual: la habilidad de entregar conexiones de alta velocidad en cualquier parte, permite al mundo de la computación cambiar de “comprar productos” (computadoras, almacenamiento y software) a “comprar servicios” (IaaS, PaaS, SaaS). Obviamente esto ocasiona trastornos a los vendedores convencionales de software y hardware, pero también los ocasiona para los operadores de telecomunicaciones, porque les da la oportunidad de volver a pensar los límites de sus redes. La red “Nube” ahora puede incluir no solamente centros de información físicos, sino también la virtualización de las capacidades de servicio que pueden ser entregadas junto con el tono de discado para así mejorar las vidas de los usuarios. Si comparamos el tráfico de las redes con los ríos en el mundo digital, entonces los centros de datos serán las futuras “represas”. Estos centros de datos de nueva generación requerirán cambios revolucionarios a nivel tecnológico, brindando así la capacidad de procesamiento masivo de información a un bajo costo.
Aún en áreas donde las economías están sufriendo una crisis, la industria de las telecomunicaciones aún puede mantener, e inclusive incrementar su crecimiento. Las sociedades exitosas necesitarán mayor conectividad, poniendo la responsabilidad social de unir la brecha digital en la industria de las telecomunicaciones. Durante los últimos diez años, un mundo informático ha tomado forma. En los próximos años, el despliegue universal de conectividad de alta velocidad, bajo costo y en cualquier lugar será la fuerza que impulse el desarrollo de la industria de las telecomunicaciones.

Lanzan una aplicación para convertir un iPod en un iPhone

Para alegría de sus muchos usuarios, ahora iPod Touch puede usarse como si tratara de un teléfono, sin necesidad de tarjeta SIM. Es gracias a la compañía de telefonía IP Jajah, que ha lanzado una aplicación para el popular reproductor de música, con el que se pueden realizar llamadas y mandar SMS. Para conseguirlo es necesaria una conexión a Internet mediante wifi. Aquellos que opten por esta aplicación pueden beneficiarse de los precios de Jajah, mucho más baratos que los de las operadoras de telefonía.

A simple vista resulta imposible diferenciar un iPod Touch de un iPhone. Sin embargo, el primero es un reproductor de música, con la pantalla más grande de toda la línea iPod y además táctil, y el segundo es un teléfono 3G. El mayor competidor de Skype, Jajah, ha publicado en la App Store una aplicación que permite realizar y recibir llamadas y SMS desde un iPod Touch. Eso sí, para funcionar necesita de conexión wifi y de unos auriculares con micrófono.

"Millones de personas de todo el mundo ya tiene un iPod Touch en su bolsillo. Con la solución de Jajah, cualquier compañía puede convertir los iPod Touch de sus clientes en un teléfono móvil totalmente funcional", aseguró el consejero delegado de Jajah, Trevor Healy. "El dispositivo es particularmente popular entre estudiantes, que viven en un mundo en el que el acceso Wifi está siempre disponible y que, como cualquiera, quieren ahorrar dinero, así que ésta es la solución perfecta".

Cualquiera que disponga de la última versión del iPod Touch podrá descargar la aplicación de Jajah desde la AppStore de Apple, la tienda online de aplicaciones de los dispositivos iPod Touch e iPhone. Tan sólo es necesario unos auriculares con micrófono para utilizar las llamadas. En muchos casos, el costo de las llamadas y los mensajes de texto son hasta un 98 por ciento más baratos que el de las operadoras convencionales. Además, existen casos en los que resulta incluso gratis.

Ser más eficientes, el desafío de los buscadores web

Los millones de internautas buscan y encuentran en internet la información que necesitan, pero es urgente brindarles motores de búsqueda más eficientes. Los cambios que se vienen en la red

En apenas dos semanas, Yahoo! lanzó un nuevo concepto, Microsoft anunció su nuevo motor de búsqueda y Google presentará nuevas funcionalidades, mientras que un recién llegado, WolframAlpha, logró suscitar la curiosidad de los medios especializados.

Según estas empresas, los internautas podrán encontrar con un click las respuestas que buscan, que irán más allá del simple menú de vínculos en internet que dirigen hacia uno u otro sitio.

Incluso, Google -que basó su dominación en la simplicidad de su página a la hora de mostrar los vínculos hacia los sitios buscados- promete nuevas experiencias.

A fin de mes será lanzado "Google Squared" (Google al cuadrado): "A diferencia de un motor de búsqueda normal, esta funcionalidad no se contenta con encontrar páginas sobre el tema que interesen al usuario: automáticamente buscará y organizará hechos que encuentre en internet".

Yahoo!, segundo en el mercado (20,4%), se vanaglorió esta semana de los avances en materia de búsqueda, presentando el concepto "WOO" ("web on objects", internet en base a los objetos), en oposición al "WOL ("web on links, internet a base de los vínculos).

Se trata de "llevar directamente a lo que le interesa", explicó el hombre detrás del concepto, Phrabhakar Raghavan, en una entrevista con el sitio especializado AllThingsDigital.

Una idea que ya explotó el genio de las matemáticas Stephen Wolfram, que la semana pasada lanzó su sitio de búsqueda "WolframAlpha", un instrumento que compila bases de datos para encontrar respuestas a algunas preguntas precisas, como el cálculo de las calorías de un sandwich o un récord de temperatura.

El gigante Microsoft, que busca desesperadamente estar más presente en el mercado (8,3% en abril), presentará por su parte la semana próxima su nuevo motor de búsqueda.

Bautizado provisoriamente "Kumo", el nuevo motor permitiría mostrar los resultados por género (imágenes, videos) y tendría un espacio reservado a vínculos comerciales.

Sobre todo, "Kumo" reivindica una técnica de búsqueda semántica más fina que el simple agregado de palabras clave usado en el pedido.

Pero para David Sullivan, redactor en jefe de Searchengine.com, todas estas novedades no responden a lo que parecen buscar realmente los internautas cada vez más: la información en tiempo real.

Y paradójicamente no son los motores de búsqueda los que pueden brindarla, sino los sitios de socialización como Twitter: fue en este servicio de microblogging que los internautas pudieron saber rápidamente las consecuencias del sismo de Los Ángeles del domingo pasado, cuando en una búsqueda en Google no aparecía nada.

Fuente: AFP - NA

Saturday, May 23, 2009

YouTube: se suben 20 horas de video por minuto

El tráfico aumentó en cinco horas por minuto desde comienzos de año, informó la empresa perteneciente a Google. A pesar del éxito, aún no logran volverla rentable

El popular sitio de intercambio de videos en internet YouTube sigue creciendo: cada minuto se colocan en el sitio 20 horas de videos, dijo YouTube.

A mediados de 2007 se subían seis horas de videos por minuto, indicó. Un tráfico que aumentó a 15 horas por minuto en enero de este año y que ahora asciende a 20 horas por minuto, añadió.

Google compró YouTube en 2006 por u$s1.650 millones, pero no ha logrado aún volver redituable el sitio, pese a su masiva popularidad. De hecho, se espera que reporte pérdidas por unos u$s400 millones este año.

El sitio cerró acuerdos recientemente con estudios de Hollywood para publicar contenido, tratos similares a los alcanzados con numerosas cadenas de televisión.

Fuente: AFP - NA

Microsoft deberá pagar u$s200 millones por una patente

La empresa informó que un jurado de Texas le ordenó pagar esa cifra a la firma canadiense de software i4i. Apelará la medida

La mayor empresa mundial de software, que está envuelta en una serie de batallas legales sobre patentes, dijo que la compensación por daños carecía de sustento, por lo que apelará el veredicto.

"La evidencia claramente demostró que nosotros no cometimos infracciones y que la patente de i4i no es válida", dijo un portavoz de Microsoft.

"Creemos que la compensación por daños no tiene sustento legal, entonces pediremos a la corte que revoque el veredicto", añadió.

i4i se describe como una empresa que elabora "soluciones y tecnologías de contenido colaborativo".

El mes pasado, se ordenó a Microsoft pagar u$s388 millones en daños por infracción de patente a Uniloc, que elabora programas antipiratería.

Microsoft también está apelando ese fallo.

Fuente: Reuters

Intel lanzará un nuevo chip para netbooks

También prepara un sistema operativo de fuente abierta basado en Linux denominado Moblin, que respalda desde 2007, para estos equipos portátiles

Intel lanzará un nuevo chip para netbooks

Intel anunció que en el cuarto trimestre de este año presentará una nueva versión, más barata y eficiente, de su chip Atom para netbooks, que supone una nueva etapa de desarrollo de las computadoras de bajo costo, que se han vuelto populares entre los consumidores.

El fabricante de semiconductores también dijo que el sistema operativo de fuente abierta basado en Linux para netbooks denominado Moblin, que respalda desde 2007, está ahora en etapa de pruebas beta.

La próxima generación de plataformas Atom tendrá dos partes, en lugar de tres, un mejor rendimiento y una mayor duración de las baterías, en comparación con la actual generación de Atom, dijeron ejecutivos de la empresa en una conferencia telefónica.

Los ejecutivos expresaron que proporcionarán más detalles sobre Atom y Moblin durante la muestra de computadoras Computex, que se celebrará en Taiwán en junio.

Moblin, que ahora es desarrollado por la Fundación Linux después de que Intel le entregara el control en abril, no está diseñado para desafiar el predominio de Microsoft en sistemas operativos, afirmó Intel.

"Hay peticiones de nuestros clientes para que puedan usarse ambientes operativos alternativos", dijo el vicepresidente de software y servicios de Intel, Doug Fisher, en la conferencia telefónica.


Actualmente, la mayoría de los netbooks operan con viejos sistemas operativos Windows XP de Microsoft. La empresa ha dicho que su nuevo sistema Windows 7 también podrá operar en netbooks, después de que su actual sistema Vista demostrara ser demasiado pesado para operar en la mayoría de los netbooks.

Friday, May 22, 2009

Alertan que el sistema GPS podría fallar el próximo año

En Estados Unidos acusan al Ejército de haber fracasado en su tarea de construir nuevos satélites para el sistema de posicionamiento global

Alertan que el sistema GPS podría fallar el próximo año

Desde pilotear un avión hasta localizar el camino a la estación de servicio más cercana, el sistema de posicionamiento satelital global (GPS, sigla en inglés) se ha hecho imprescindible en la vida diaria, pero un informe del Gobierno de Estados Unidos alerta de que podría fallar en 2010 por falta de fondos.

El Ejército del Aire estadounidense, responsable de la gestión de la red de satélites que hacen posible el sistema de posicionamiento GPS, descuidó sus tareas, asegura un reciente estudio de la Oficina de Responsabilidad Gubernamental.

El informe fue recogido por la prensa estadounidense, y citado por la agencia Efe, y advierte al Congreso de Estados Unidos de que son necesarios unos 2.000 millones de dólares para actualizar la red de satélites si se quiere evitar que empiecen a fallar.

"Cuando los viejos satélites empiecen a registrar fallos en 2010, existe una alta probabilidad de que la red caiga por debajo del número de satélites requeridos para proveer el nivel de servicio al que el Gobierno de Estados Unidos se ha comprometido", dice el estudio.

La Oficina de Responsabilidad Gubernamental acusa al Ejército de haber fracasado en su tarea de construir satélites para el sistema, ajustándose al presupuesto y en los períodos de tiempo requeridos.

Creado por el Departamento de Defensa de Estados Unidos y gestionado por el Ejército del Aire, el sistema de posicionamiento GPS es el único sistema global de navegación vía satélite actualmente funcionando.

La red dispone de entre 24 y 32 satélites en órbita alrededor de La Tierra y son necesarios al menos cuatro para localizar un punto determinado.

Es el único sistema global de navegación vía satélite que funciona actualmente. El sistema GPS puede ser utilizado libremente por cualquiera y sus usos civiles se han multiplicado en la última década.

Es habitual en aviones comerciales, barcos y automóviles donde sustituyó a los tradicionales mapas de carretera, pero también en la última generación de teléfonos móviles, en los que permitió la creación de muchas aplicaciones.

Aunque, teóricamente, el sistema podría seguir funcionando con menos de 24 satélites operativos, los expertos creen que su precisión se reduciría notablemente.

Para usted o para mí supondría no obtener resultados tan exactos cuando buscamos una calle en el Tom-Tom o el restaurante más cercano en Google Maps para iPhone, pero para la aviación comercial o el Ejército las consecuencias de una mínima imprecisión son enormes.

"Ellos operan con un margen de precisión del 99,9%. Si cae por debajo del 95% no se sienten cómodos", dijo a la cadena CNN Alan Cameron, editor de la revista especializada en el sector GPS World.

Precisamente por su interés para la seguridad nacional, los analistas esperan que el Gobierno encuentre una forma rápida de realizar las inversiones necesarias para actualizar el sistema.


"Si algunos bancos son demasiado importantes para quebrar, también lo son ciertos programas gubernamentales. Es el caso del GPS y, como con los bancos, parece probable que se destinen grandes sumas a encontrar una solución", dijo David Coursey, analista de PC World.

Una eventual falta de precisión del sistema GPS beneficiaría al sistema europeo Galileo, desarrollado por la Unión Europea (UE) y la Agencia Espacial Europea y que debería estar operativo en 2011.

Cuando empiece a funcionar, Galileo tendrá un margen de error de sólo de 4 metros en horizontal y menos de 8 en vertical, prácticamente la décima parte del GPS.

La iniciativa europea nació para evitar una excesiva dependencia del sistema de posicionamiento estadounidense, especialmente en el caso de que se produjeran fallos como los que podrían empezar a afectar a los navegadores de nuestros automóviles a partir del próximo año.

El Ejecutivo intenta frenar la ciberocupación en Internet

Sólo se podrán anotar hasta 200 dominios por usuario. El 0,17% de las entidades registrantes tiene a su nombre el 25% total de las direcciones

El Ejecutivo intenta frenar la ciberocupación en Internet

El Gobierno nacional intentará poner un freno a la ciberocupación de dominios en Internet, una práctica favorecida por la gratuidad del proceso para registrar el nombre de una dirección en la Red que existe en la Argentina.

A través de la resolución 203/2009 del Ministerio de Relaciones Exteriores, Comercio Internacional y Culto, publicada hoy en el Boletín Oficial, se limitará a 200 registros la capacidad que tendrá una entidad registrante para dar de alta nuevos dominios. En el caso de las entidades que ya tienen más de 200 dominios a su nombre, deberán optar por esa cifra, mientras que el sobrante quedará liberado.

Los nombres de dominio son una forma amigable de traducir las direcciones IP consistentes en una serie de números que identifican de manera lógica a una computadora dentro de una red, permitiendo el acceso a Internet, a la información publicada y a los servicios que en la red se encuentran disponibles.

En la resolución, el Gobierno admitió que en nada se establecía respecto de la cantidad de nombres de dominio que una entidad registrante pueda tener a su nombre (como titular), ya sea una persona física o jurídica.

Esta situación "ha permitido y permite aún el abuso en cuanto al registro de nombres con subdominios “.com.ar” y “.org.ar”, existiendo entidades registrantes con miles de nombres inscriptos y otro tanto en calidad de solicitudes pendientes de registración", admitió el Gobierno.

Este abuso fue puesto en cifras en la resolución: Unos 450.000 nombres de dominios que representan el 25% del total de los dominios actualmente registrados, fueron registrados por 884 entidades registrantes de las 511.815 dadas de alta en la base de NIC Argentina. Es decir el 0,17%, que a su vez tienen 200.000 dominios pendientes de aprobación.

La medida, que alcanza a los subdominios “.com.ar” u “.org.ar”, impide a las entidades registrantes con más de 200 nombres de dominio registrados realizar nuevos registros, y no podrán recibir transferencias de terceros. Además podrán renovar hasta 200 de los dominios que ya posee registrados.

A un paso del nuevo buscador de Microsoft

La empresa podría mostrar por primera vez la próxima semana una nueva versión de su motor de búsqueda en internet, con el cual aspira a dar pelea contra Google y Yahoo!

El gigante del software ha estado probando una nueva versión del servicio conocido internamente como Kumo.com y podría formar parte del intento de la compañía por alcanzar a los líderes de búsquedas en internet, Google y Yahoo!

Microsoft ha contratado a JWT, una filial de WPP, para desarrollar una campaña publicitaria para el producto, dijo The Wall Street Journal.

El buscador sería presentado en la conferencia "D: All Things Digital".

Fuente: Reuters

Las limitaciones del buscador del que todos hablan: Wolfram Alpha

Apodado por algunos como el "asesino potencial" de Google, el sitio empezó a funcionar oficialmente, tras semanas de especulaciones y pruebas. Por ahora, sus resultados dejan que desear

Fruto de varios años de trabajo del matemático Stephen Wolfram y su equipo, Wolfram Alpha quiere llevar las búsquedas de internet a un nuevo plano y, más que proporcionar listas de resultados, intenta entender lo que el usuario está preguntando.

En realidad, el servicio es algo así como una mezcla de Wikipedia y Google, y sus propios responsables prefieren usar el término "motor de conocimiento computacional" al de buscador de internet.

"Un buscador de internet busca cosas que ya existen en la red. Alpha construye nueva información para usted, crea nuevas páginas con las respuestas a sus preguntas", explicó a la prensa Theodore Gray, cofundador de Wolfram Research, la empresa detrás del motor de búsqueda.

Efectivamente, aquel que espere una herramienta que aporte listas de datos semejantes a las de Google y otros populares buscadores quedará decepcionado.

Si introducimos en Wolfram Alpha "PIB España Italia", obtendremos en segundos extensa y ordenada información sobre el PIB y otros datos económicos de ambos países acompañada de gráficos.

La misma búsqueda en Google nos obliga a dirigirnos a varios sitios de internet y rastrear en ellos la misma información (...) salvo que clickeemos directamente en el link de Wolfram Alpha que Google ofrecía entre los resultados.

Si optamos por Wikipedia, la página nos proporciona sendos artículos sobre las economías italianas y españolas en los que el internauta tendrá que buscar él mismo los datos.

En otras palabras: Wolfram Alpha le hace los deberes al usuario.

El motor de búsqueda es especialmente útil a la hora de encontrar datos históricos o geográficos, soluciones a fórmulas matemáticas o cotizaciones bursátiles.

En pocos segundos, la corresponsal de EFE descubrió que el día de su nacimiento cayó en miércoles de ceniza y que hoy se celebra el centenario de la muerte de Isaac Albéniz.

Los críticos se han deshecho en elogios sobre Wolfram Alpha, especialmente por su capacidad de entender lo que el usuario está preguntando.

"Incluso más allá de impresionante; las palabras que mejor describen la experiencia de usar Wolfram Alpha son mágico y divertido", opinaba Chris Sherman, experto de la página especializada Search Engine Land.

Aunque en las pasadas semanas algunos medios apodaron el buscador como el "potencial asesino" de Google, los que han podido probar Wolfram Alpha coinciden en que es más un complemento que un competidor de Google y que podría hacer más sombra a otras páginas como Wikipedia.

Comparado con Google, que sólo en los EEUU acapara un 70% de las búsquedas en internet, Wolfram Alpha resulta a veces mucho más útil, pero decepciona en otras ocasiones.

Una de sus principales limitaciones es que, por el momento, sólo acepta preguntas en inglés. Si introducimos, por ejemplo, "Infobae", Google arroja cerca de dos millones de resultados, pero Wolfram Alpha asegura no saber de qué le estamos hablando.

En algunas ocasiones el nuevo buscador resulta tan académico que recuerda a un estudiante empollón que no hubiera salido en años de la biblioteca y tuviera poco contacto con la vida real.

El término "Barack Obama" nos ofrece el lugar y fecha de nacimiento del presidente de EEUU, pero nada más. Al introducir Twitter, el popular servicio de microblogging, Wolfram Alpha informa del significado literal de la palabra, "hacer sonidos agudos, como los pájaros".

Sobre acontecimientos recientes, el buscador da la sensación de estar totalmente perdido. "Wolfram Alpha no está seguro de qué hacer con tu pregunta", nos dice un mensaje tras introducir en inglés los términos "ganador de Eurovisión" o "Mario Benedetti".

Fuente: EFE

Thursday, May 21, 2009

Las 10 razones por las cuales el Congreso no debe votar el impuestazo tecnológico

Una cadena de mails da los motivos por los que diputados y senadores deben decirle "no" a esta iniciativa del Gobierno. Infobae.com te las detalla

El Ministerio de la Producción Nacional envió al Congreso el proyecto de ley de un nuevo impuesto a los productos electrónicos, que implicaría un importante aumento en los precios de ese tipo de artículos electrónicos.

Además, desde la oposición dijeron que "atenta contra la inclusión digital" y desde la Cámara de Informática y Comunicaciones expusieron que “va en sentido inverso lo que se hace en otros países” y “provocaría una contracción en el sector.
´
Pero, según una cadena de mails, hay más razones para que el Congreso no la apruebe:

1. Declara "productos suntuosos" a celulares, PC, laptops y monitores. Productos que son herramientas de trabajo y comunicación para la gran mayoría de los argentinos y que hacen al desarrollo económico, social y cultural del país. Por ejemplo, el teléfono celular es el único medio de comunicación para los más pobres.

2. Aumento de precios: 35 por ciento una laptop, 15 por ciento una PC y 20 por ciento un celular. Con lo que serán los más caros de América y probablemente del mundo.

3. Con estos aumentos se atrasa dos o tres años la llegada de nuevos equipos y los mercados de estos productos se reducen entre un 20 por ciento y un 40 por ciento.

4. Agranda la Brecha Digital, retrasando al país aun más respecto de America Latina y el mundo. Actualmente Argentina está en el puesto número 10 de América Latina respecto a la densidad de PC por habitante y por detrás de Brasil, México, Venezuela, Ecuador, Perú, Uruguay y Chile, entre otros.

5. Genera desempleo. Hoy en día hay 18 mil trabajadores que, en forma directa o indirecta, están empleados en las Pymes de capital nacional que producen PC, laptops y monitores en todo el país.

6. Destruye una industria nacional que ya está consolidada en todo el país por una industria que no existe en la provincia de Tierra del Fuego , que nunca fabricó una PC, laptops o monitor y genera sólo el 2 por ciento de los celulares.

7. Aumentará la inseguridad, puesto que dichos productos tendrán un mayor valor de reventa en el mercado negro de artículos robados.

8. También, aumentará el contrabando, por la mayor diferencia que habrá con los precios de estos productos en otros países.

9. Contribuirá a generar más recesión en la economía argentina por la retracción del mercado informático y celular.

10. Es una nueva contradicción entre lo que el Gobierno dice y lo que hace. Debido a que hace tan sólo una semana se anunció la Agenda Digital con el objetivo de que "los beneficios de las TICs le lleguen a todos los argentinos".

Récord de presentaciones en el concurso de innovaciones

Este año aumentaron los premios, que van de $ 3.000 a $ 30.000, y se sumaron las categorías Tecnologías para el desarrollo social y Concepto Innovador

Récord de presentaciones en el concurso de innovaciones

El Ministerio de Ciencia, Tecnología e Innovación Productiva cerró la inscripción para la 5ª edición del concurso INNOVAR con un record de más de 2.600 presentaciones, superando en un 50% la cantidad de proyectos de 2008.

Este año además de mayores premios, que van de $ 3.000 a $ 30.000, se suman dos nuevas categorías: Tecnologías para el desarrollo social y Concepto Innovador. La primera está destinada a instituciones como escuelas, universidades, fundaciones y áreas de gobierno. Se enfoca a proyectos no comerciales dirigidos a mejorar la calidad de vida, a través de tecnologías basadas en el buen uso de los recursos naturales o en el saber popular.

Concepto Innovador apunta al diseño conceptual de productos o procesos novedosos, ya sea en su tipología, uso, estética, técnica o algún otro aspecto.

“INNOVAR nos permite hacer foco en dos aspectos que desde el Ministerio nos interesa destacar. Por un lado, impulsar y fomentar la incorporación de innovaciones y tecnologías que lleguen a la sociedad en forma de productos, que pueden convertirse en una empresa de base tecnológica, y por otro los desarrollos sin fines comerciales pero que mejoren la calidad de vida como es el caso de la nueva categoría Tecnologías para el desarrollo social”, afirmó Ruth Ladenheim, secretaria de Planeamiento y Políticas del ministerio.

Pablo Sierra, coordinador del concurso destacó que “en cinco años se han presentado al concurso más de 10.000 propuestas. La mitad de ellas se orienta a la salud, el medioambiente, la alimentación y la seguridad. La otra mitad de los proyectos recibidos y seleccionados, son alternativas útiles en el campo del software, el mobiliario y la industria del transporte”.

Las clásicas categorías Producto Innovador, Diseño Industrial, Diseño Gráfico, Investigación Aplicada, Innovaciones en el Agro e INET siguen presentes en esta edición.


El proceso de evaluación se extenderá desde el 1 de junio hasta septiembre y los ganadores se anunciarán en octubre.