A las compañías se les va de las manos con los DLC Season Pass

Los DLC’s (o contenidos descargables) son una cosa maravillosa. El jugador va a la tienda a comprar un juego muy esperado y a pagar gustosamente por él. Llega a su casa y lo juega, se lo termina y le encanta, y además puede darle caña al multijugador. Meses más tarde, la compañía lanza un contenido descargable que añade varias misiones al juego por un módico precio, y el cliente paga encantado. Por ejemplo, los contenidos descargables de GTA IV, que bien podrían ser denominadas expansiones, de las de toda la vida.

Ahora no es así. Ahora el jugador repite el proceso de comprar el juego, pero cuando llega a casa se encuentra con que nada más meter el juego en la consola, ya hay misiones de contenido descargable disponible. ¿Cómo es eso posible si el juego ha sido lanzado hoy? Bueno, ya verá el jugador que hace, y empieza su aventura. Cuando lleva un rato disfrutando del título, un personaje le ofrece una misión que tiene pinta de estar chulísima, y según vas a aceptar la nueva “quest”, te encuentras con que te salta un pop-up que te dice: “Paga 10€ si quieres disfrutar de esta misión”. ¡Pero esto qué coño es! ¿En medio de una partida de un juego que te acaba de costar 70€ me dices que pague para desbloquear algo que ya venía metido en el disco? No way.

Aún recuerdo perfectamente ir a finales de septiembre de 2002, cuando apenas tenía 14 años, a comprar Battlefield 1942 a la tienda GAME. Lo disfruté como un enano, y prácticamente cada mes salía un nuevo parche para el juego. Éstos no se limitaban a corregir errores o a balancear el multijugador, sino que añadían nuevos mapas y armas. Seis meses más tarde se lanzó una expansión por 20€, que añadía 6 nuevos mapas, 2 nuevas facciones y 11 nuevas armas. ¡6 mapas, 2 facciones y 11 armas! Hoy en día da gracias si te dan 2 mapas por 10€.

Y cuando pensábamos que no podía haber nada mas ruin que Capcom intentando cobrarte 5€ por un trajecito nuevo para Street Fighter, alguien se le ocurrió la magnífica idea de los “season pass”, o pases de temporada. Resulta que ahora te compras el juego y te viene un papelito dentro en color muy chulo (mucho más que el cutre manual que muchas compañías ya ni incorporan) y te dicen que pagues 30€, 40€ o incluso 50€ por una serie de contenidos descargables que saldrán durante los próximos meses. Y ojo, porque están muy bien planificados pero nunca vas a saber si luego realmente merecerán la pena o serán buenos. O incluso si seguirás jugando al juego, pero lo importante es que ya has picado.

El recién lanzado Borderlands 2 tiene un pase de temporada de 30€, e incluye todos los contenidos descargables que se lancen… o no, porque recientemente ya han confirmado que a pesar del pago de los 30€ a los 70€ adicionales que el juego te haya podido costar, habrá varios contenidos que no entrarán, es decir, que una vez más habrá que pasar por caja. Por si todo esto fuese poco desde el día 1 está disponible un personaje nuevo por 10€. Todos locos.

Es decir, el jugador se encuentra con que si, por ejemplo, se compra cinco juegos al año, está pagando 350€ por los juegos y casi 200€ por los contenidos descargables. Porque hasta juegos eminentemente monojugador como Max Payne 3 sufren de esta dolencia.

Hoy me he encontrado con una mejor aún. Forza Horizon, que saldrá a la venta el 26 de octubre, puedo reservarlo en Amazon España por 54€. El juego viene con más de 100 coches, bastantes más. Sin embargo, ya han anunciado un pase de temporada que costará, atención, 50€. Casi más que el juego. A mi no me parece ni medio normal.

Luego estos juegos que cuestan 100€ entre juego y contenido descargable los encontrarás en edición juego del año a 30€ unos meses después. ¿De verdad no saben aún por qué bajan las ventas del día de lanzamiento respecto a años anteriores? Así da asco comprar.

Gran parte de la culpa de todo esto la tienen los juegos F2P (Free to play), títulos gratuitos a los que puedes dedicar unas horas, pero en cuánto quieres subir de nivel o conseguir buenos objetos, tienes que pasar por caja. El modelo es legítimo, y más allá de que como jugador no me agrade, es normal que tenga éxito y que muchos usuarios se gasten el dinero en esos productos, porque cada vez son de mayor calidad. El problema viene es cuando la industria tradicional ve la cantidad de dinero que se puede hacer con pequeñas transacciones y deciden implementarlo en juegos de 70€. No señores, o el juego es gratis y me cobras por todo o el juego vale 70€ e incluyes todo, pero lo que no puede ser es que te gastes un buen dinero en un producto y encima te lo quieran vender a cachos, o cobrarte por desbloquear cosas que ya están metidas en el mismo disco, lo cuál debería ser ilegal a todas luces.

Cada vez son menos los jugadores que compran los productos de lanzamiento, y no es por su elevado precio, o por la segunda mano, sino porque las compañías no paran de gritar a los cuatro vientos la cantidad de contenidos descargables que tendrán sus juegos mucho antes de que se pongan a la venta, y así a uno se le quitan las ganas, mejor esperar. Porque en realidad, lo normal de los pequeños accesorios para el juego, es que fuesen gratuitos. Como hace Valve, sin ir más lejos.

Los DLC’s no son malos, ahí tenemos las expansiones de GTA IV u otros muchos ejemplos de maravillosos contenidos realizados a posteriori por los que todos los jugadores pagarían encantados. El problema son las compañías que deciden abusar de ello de forma casi criminal. El sector no se hunde, lo matáis vosotros.

Reflexiones sobre Indie Game: The Movie

Ayer se lanzó “Indie Game: The Movie”, un documental sobre el desarrollo independiente de videojuegos que se centra en los creadores de Braid, FEZ y Super Meat Boy.

Antes de nada, comentar que os podéis hacer con él en iTunes, Steam y en su web (yo os recomiendo esta última porque todos los beneficios van para ellos), y eso os da acceso a la película en 1080P (tendrá subtítulos en castellano a finales de esta misma semana) y a una versión comentada por el Meat Team.

La película (o más bien, el documental), narra varias de las fases de desarrollo del producto, pasando por numerosos momentos de alegría o frustración, y combinando de forma bastante correcta todos los elementos, es decir, entrelazando las historias.

Se trata de algo más de una hora y media bastante entretenida, donde puedes ver de cerca que a pesar de ser desarrolladores que en la actualidad cuentan con un gran prestigio, han tenido numerosas dificultades por el camino, no sólo en lo profesional, sino también en lo personal. Es un acercamiento que quizás nunca antes se había dado en la industria.

Uno de los problemas que particularmente le veo es que se han centrado en tres casos de éxito mundial, y aunque el proceso realmente es el mismo, el resultado se diferencia bastante. Se trata de una industria donde hay una tasa de fracaso y cancelación de más del 80%, y eso es algo que el espectador puede no entender del todo bien. Y puede pensar “si sacan un juego y son millonarios, dará igual que me descargue ilegalmente unos cuantos juegos independientes, no pasará nada, se hacen millonarios”. De la misma forma, no hubiera estado de más mostrar a unos cuantos desarrolladores más, aunque fuese en una proporción de tiempo menor.

Algo a destacar especialmente bajo mi punto de vista es que podemos ver como algunos de ellos tenían un número considerable de juegos a sus espaldas, y probablemente nadie conozca ninguno de ellos, lo que deja claro que para alcanzar el éxito y conseguir un producto que realmente cause furor, hay que intentarlo una y otra vez. Por ejemplo, aunque no salga comentado en el filme, Rovio llevaba más de 50 juegos publicados antes de lanzar Angry Birds. Claro que también puede ser el caso de FEZ y conseguir el éxito en el primer videojuego, pero es complicado.

En general recomiendo su visionado a cualquier aficionado a los videojuegos y su industria o a cualquier persona que quiera dedicarse a desarrollar videojuegos. Ya me diréis.

Sobre el diseño de consolas y la limitación de varios mandos en Wii U

Es sabido por todos que en el desarrollo de un videojuego diseñadores y programadores no siempre quieren lo mismo, y muchas veces se tiene que llegar a un punto intermedio, creando una grata experiencia jugable y que sea apta de crear para los programadores. En el diseño de una nueva plataforma de hardware sucede lo mismo, visionarios e ingenieros no siempre llegan a un acuerdo, y esto desemboca en un inevitable quiero y no puedo.

El mejor ejemplo creo que esta generación lo hemos visto como PS3 y en menor medida con Xbox 360. La consola de Microsoft salió en 2005 prometiendo HD y así ha sido, pero a medias. Por suerte tiene un chip dedicado que escala mediante GPU la resolución a 1080P consiguiendo una mejor calidad de imagen en paneles FullHD. Por otra parte tenemos a PS3, que tras asegurar que todos sus juegos irían a 1080P y a 120 fps, nos hemos encontrado con subresoluciones a 720P y muy pocos juegos que alcancen la resolución prometida. Todo esto es debido a que los diseñadores querían una cosa, los ingenieros otra y el bolsillo de la compañía una más diferente aún, de forma que al final se toman decisiones equivocadas.

Con Wii U nos encontramos ante un caso parecido. Los visionarios como Miyamoto han querido implementar todo el asunto del “juego asimétrico”, mientras que los ingenieros habrán dicho que eso conlleva un coste, e Iwata habrá puesto un tope a ese coste. ¿Resultado? Quiero y no puedo.

Wii U propone como elemento principal de innovación el juego asimétrico, un concepto que en realidad es una extrapolación de la fórmula de Nintendo DS, modelo que ha funcionado excepcionalmente bien. Las ideas propuestas al principio de que uno sostenga la tableta y otros cuatro el Wii Mote es algo que quizás no convencía demasiado, pero tras ver algunos gameplays como el de Rayman Legends está claro que todo eso va a poder dar mucho juego con amigos. De la misma forma, para jugar uno solo con su tableta todo perfecto.

Ahora bien, todos hemos pensado que sería ideal, por ejemplo, un shooter local que en pantalla mostrase algunos elementos y en cada pantalla individual el juego en sí, eso sí sería revolucionar el juego de salón, y como esa idea, hay otras miles. ¿No sería genial? Evidentemente sí, pero eso, tiene un coste.

Nos encontramos con que en un principio Wii U sólo iba a soportar una tableta, lo cual hizo saltar todas las alarmas. Sin embargo, en la conferencia anunciaron que soportaría dos (lo cual está mejor pero sigue siendo insuficiente), y el palo llegó después, cuando confirmaron que con dos tabletas la tasa de imágenes por segundo descendería a la mitad.

Aquí es cuando Nintendo se habrá encontrado entre la espada y la pared, porque sacar una consola que soporte cuatro tabletas tendría un coste elevado que en plena crisis mundial no están muy por la labor de arriesgarse, pero por otra parte con Wii U tal y como la conocemos hoy en día la experiencia de juego asimétrica se queda bastante limitada.

El primer problema es que las tabletas en sí, por lo que se ha sabido hasta la fecha, no tienen procesador propio, cargando todo eso a la consola. ¿Respuesta? Se necesita un hardware más potente o mejor optimizado para ello, por pura lógica. ¿Problema? El coste de venta.

El segundo problema es el ancho de banda WiFi. Hoy en día cualquier portátil soporta unas tasas de transferencia de unos 50 Mbps, y es sabido por todos que esa velocidad está ampliamente superada por los nuevos estándares que van saliendo, no obstante, supongamos que ese es el límite técnico al que tenemos que aspirar. Un Blu-ray tiene una tasa de transferencia máxima de 36Mbps, donde incluimos una señal sin comprimir de 1920×1080 más audio 5.1, y nos sobra caudal. ¿Qué podemos hacer en una consola? Pues perfectamente meter dos tabletas por antena, como finalmente Nintendo suponemos ha hecho.

¿Cuánto le puede costar a la compañía Nipona meter un módulo adicional de WiFi en la consola? ¿3-4€ por plataforma? Probablemente incluso menos (Por ejemplo, a Apple el módulo de WiFi / GPS / BT del iPad le cuesta 5$).

¿Estamos hablando de una limitación WiFi entonces? No, por supuesto que no, queda claro que el problema no está aquí sino en la potencia de la consola, ya que el coste de renderizar cinco pantallas sería un auténtico dolor de cabeza. Y si la pantalla de la tableta estuviese en HD, ya ni os cuento.

Y aquí es cuando volvemos al inicio del artículo, un quiero y no puedo. Si los costes de los componentes en estos momentos no permiten que el juego asimétrico sea una realidad, entonces a lo mejor lo idóneo sería guardar la idea en un cajón hasta la siguiente generación y apostar por otra innovación en estos momentos. Lo que desde luego es una lástima es apostar por un cambio tan grande y hacerlo a medias. Una vez más, un nuevo quiero y no puedo.

Libros basados en videojuegos

Desde hace ya unos cuantos años, y en parte gracias al avance de la tecnología, los desarrolladores de videojuegos han podido pensar mundos más complejos y elaborados que antaño, lo que ha dado lugar a, en general, una profundidad argumental mucho más compleja y mundos más ricos en detalles, lo que unido al gran mercado que supone el ocio interactivo, ha terminado en una gran cantidad de libros basados en videojuegos en el mercado. Antes de nada, destacar que el artículo está libre de spoilers.

A mi desde pequeño me ha gustado mucho leer, que unido a mi afición por los videojuegos, ha hecho terminar una gran cantidad de estos libros en mi estantería. Sin embargo, hay muchas sorpresas escondidas, algunas muy positivas y otras no tanto.

Recientemente he terminado de leer Rapture de John Shirley, y ha sido una de las razones por las cuales me he animado a escribir este texto. En los últimos meses he leído cosas gloriosas como la saga The Witcher, cuya literatura ha sido elogiada en medio mundo (y que ha dado lugar a un videojuego, en lugar de ser a la inversa como comentamos en este escrito), y a pesar de eso, Rapture es de lo mejor que he leído, probablemente, en toda mi vida. Y os garantizo que no ha sido poco.

Se trata de una historia que comienza con Andrew Ryan de jóven y se desarrolla en prácticamente en su totalidad dentro de Rapture, finalizando poco antes del comienzo del primer videojuego, por lo que ya os imagináis la cantidad de interesante información que contendrá para cualquier fan del título de Ken Levine. Por suerte, va mucho más allá, y es que nos sumerge en una narrativa absolutamente genial que nos mantendrá pegados al libro hasta que lo finalicemos, conteniendo en su interior una trama adulta y una gran cantidad de tintes morales sobre el liberalismo económico, el individualismo y el colectivismo.Un libro que enganchará a vuestra madre, sí, a esa misma que en la vida ha tocado un videojuego y que no conoce en absoluto el universo en el que tiene lugar.

El libro se ha publicado en castellano a 20€ en edición física y a precio reducido en edición digital, y es una lectura que yo no me perdería por nada del mundo. Además, podéis leer el primer capítulo en castellano gratis desde aquí.

Por supuesto no he leído todo lo que se ha escrito sobre videojuegos, pero una cosa está clara, y es que Rapture ha dejado mis experiencias previas a la altura del betún, o de algo peor. En la peor basura existente podemos encontrar los libros de Halo, los cuales no son ni siquiera entretenidos para un fan del videojuego. Su narrativa es muy sencilla, sin apenas complicaciones argumentales de ningún tipo, que en un producto interactivo funcionarían muy bien, pero en un libro aburren a cualquier lector habitual. Por si esto fuera poco apenas profundizan en el universo Halo y no son demasiados los detalles que uno conoce en ellos que no conociese ya del juego. Sólo he leído los tres primeros, y no tengo ninguna gana de hacer lo mismo con el resto.

En el siguiente nivel podríamos encontrar los libros de Uncharted o Gears of War. Se trata de obras muy entretenidas que reflejan a la perfección la personalidad de sus protagonistas, y para aquellos que hemos pasado tantas horas jugando con ellos, nos resultarán novelas entretenidas y divertidas. Simplemente para pasar el rato. Recomendable para fans, pero probablemente aburran a quien no haya jugado previamente a los videojuegos.

Y finalmente, el paso donde deberían estar todos, libros de notable. No todos pueden alcanzar la excelencia obtenida por Rapture, pero si se debería exigir lo mínimo que se le puede pedir a un libro, y es que entretenga a alguien que no conozca previamente nada de ese producto. Aquí encontramos, por ejemplo, los libros de Mass Effect (con la salvedad del último), que han sabido captar perfectamente la esencia que Bioware ha puesto a su universo.

Se trata de novelas que profundizan enormemente en el universo creado, y en las cuales nos empaparemos con una gran cantidad de información que en los videojuegos no conseguiríamos ni de rebote. Pero no se queda ahí, sino que desarrolla una serie de tramas totalmente alternativas al videojuego (es decir, no tratan sobre Shepard) bastante bien llevadas. Los aficionados te dirán que están genial, y también entretendrá a aquellos que jamás hayan tenido contacto previo con la saga.

Espero que este artículo os haya sido útil, y con esta mini guía podáis introduciros en alguno de los libros comentados sabiendo a lo que os enfrentáis. Esperemos que dejen de hacer sub-literatura y la tendencia sea más hacia un mínimo de calidad y no productos tan nefastos como el ejemplo de Halo. Y ahora en serio, querido lector, dale una oportunidad al libro de Rapture, ¿quieres?

Conclusiones de iDÉAME 2012

Hace apenas unas horas que se ha cerrado el Idéame 2012, foro de desarrolladores independientes orientado a jóvenes creativos que están empezando (o quieren hacerlo) a trabajar en esta industria. Esta ha sido la cuarta vez que Nintendo decide auspiciar el evento coordinando todas las acciones necesarias para que se desarrolle con normalidad, lo cual es de agradecer. La compañía nipona suele ser, a nivel mundial, la más cerrada y reservada de las grandes productoras, lo que le ha conllevado numerosas críticas en los últimos años. Sin embargo, que en España se echen la manta a la cabeza y decidan organizar un evento de estas características con desarrolladores de todo el mundo (y algunos que no están trabajando para ninguna consola de Nintendo), es señal de que siguen preocupándose por el desarrollo independiente y por tener contenido de calidad en sus principales plataformas de venta digital (eShop).

Dejando de lado las polémicas que no nos atañen, en el Colegio de Médicos se dieron cita, aproximadamente, un centenar de personas interesadas en las conferencias propuestas. ¿Su perfil? Estudiantes de algún estudio sobre videojuegos o curiosos interesados en ellos. ¿Su cuota de entrada? 20 euros. ¿Objetivo? Aprender a desarrollar videojuegos correctamente, y no mediante clases técnicas, sino mediante conceptos e ideas que puedan ayudarles a ser mejores en su búsqueda del producto deseado.

En líneas generales el evento las conclusiones del evento (y las impresiones de los asistentes) han sido satisfactorias, con interesantes charlas por parte de los ponentes, pero también ha tenido su parte negativa.

Siempre resulta interesante escuchar las opiniones de los creadores, y así lo planetaba el cartel con conferencias como “Clase maestra. Dan O’Leary: Heroes of Ruin. Cómo sacarle todo el partido a una consola”, la cuál tenía gran expectación ya que no son pocos los que quieran aprovechar al máximo los dispositivos. Sin embargo, esa charla fue simplemente una presentación de prensa del videojuego que están desarrollando, ni clase maestra ni nada. A mi en la vertiente periodísitca me resulta cuanto menos interesante, pero a los estudiantes que han pagado por asistir a unas conferencias sobre desarrollo se les notaba en las caras que no era publicidad de un videojuego lo que esperaban. Y así otras tantas charlas que parecían mera publicidad del producto más que sobre desarrollo. La mayoría, sin embargo, si resultaron muy interesantes.

No hay una clave mágina para el desarrollo, por si alguno la esperaba, pero siempre resulta interesante escuchar las vivencias de creadores que ya tienen sus juegos en la calle, porque de esa forma estás ya prevenido para ciertas situaciones y cuales son las mejores maneras de responder ante ellas. O quizás como afrontar la pregunta más demandada, y es como presentar tu proyecto a una distribuidora.

Otro aspecto a mejorar son las presentaciones de proyectos por parte de los alumnos. Creo que de poco sirve sacarles a exponer sus ideas en hórridas presentaciones (la mayoría) si luego no hay, por ejemplo, un desarrollador o productor que a continuación les diga que ha estado bien y que cosas deben mejorar.

Una charla muy interesante fue la presentación Tyrone Rodriguez. Primero elaboró una clase maestra (y esta sí que lo fue, aunque no estuviese anunciada como tal) sobre como elaborar tu informe de proyecto de cara a presentárselo a una distribuidora, así como numerosos consejos para todo el proceso. Fue una de las sesiones más interesantes, y no contento con eso, anunció su nuevo juego en primicia mundial.

Enric Álvarez (Mercury Steam) tenía también una ponencia de “clase maestra”, y si bien en realidad no aportó muchos datos sobre el desarrollo en sí, fue un soplo de aire fresco que inspiró ganas de trabajar y de no tirar nunca la toalla, porque tal y como les pasó a ellos, la fortuna puede llegar en el último momento.

En general la mayor parte de las charlas fueron muy inspiradoras y aportaron gran cantidad de información, y aunque hay algunas cosas por pulir, este tipo de iniciativas hay que potenciarlas al máximo, para que los desarrolladores españoles puedan seguir aportando grandes horas de diversión a jugadores de todo el mundo. No queda otra que felicitar al equipo de Nintendo España y desear que el próximo año haya más y mejor.

Mass Effect, el final de una era

Atención, este artículo contiene “spoilers” de Mass Effect 3, por lo que te desaconsejo su lectura hasta que lo finalices. No obstante, podéis leer tranquilamente la primera parte del texto, avisaré justo antes de destripar la última entrega de la saga.

Ya he acabado Mass Effect 3, con más de 40 horas de juego a las espaldas, he finalizado la epopeya espacial del Comandante Shepard, aquel que dio su vida para salvar a la galaxia.  Tras un rato de reflexión, y como no, de tristeza, por fin puedo ponerme a redactar estas líneas. Y lo hago con un intenso dolor en el pecho, porque, aunque suene a tópico, esto va a ser difícil de olvidar.

He escogido la imagen de cabecera que podéis ver ilustrando este artículo porque es la única manera de hacerlo. No puedes coger la foto más chula que veas de Shepard, o de Liara, o de Garrus, o de… porque cada uno tiene su escuadra, cada uno tiene su tripulación, y todos tenemos nuestros acompañantes favoritos.

Las industrias evolucionan y cambian, pero jamás dejará de haber obras de calidad, ni en la música, ni en el cine, ni en los videojuegos. En pleno cambio, en plena transformación hacia otros modelos de negocio, BioWare ha demostrado que hay hueco para las grandes producciones, que estas siempre van a tener cabida. Y que si bien es verdad que un gran presupuesto no garantiza un buen juego, si que permite hacer trilogías como la que nos ocupa.

Todos tenemos en nuestra memoria grandes obras y grandes juegos, pero probablemente se nos vengan a la cabeza pocas trilogías tan originales, completas y bien realizadas. BioWare ha creado de la nada un universo espectacular, riquísimo en detalles, con cientos de horas de lectura entre libros, códices, etcétera. Me vais a disculpar la expresión, pero Mass Effect coge a Star Wars (o cualquier otra saga espacial, como Halo sin ir más lejos) y se lo folla por todas partes.

No sólo han creado un producto entretenido, sino que además lo han hecho adulto, dando paso a decisiones mucho más complejas de lo que en un principio podría parecer, donde nada es blanco o negro, sino que todo tiene sus matices. Una historia donde entran en juego los conflictos más básicos de hoy en día como el racismo, la homofobia o el ansia de poder, pero todo llevado a unas dimensiones nunca antes conocidas en la joven industria de los videojuegos. Y probablemente, en ninguna otra, porque los libros de “Elige tu propia aventura” palidecen ante las posibilidades que la tecnología nos brinda hoy en día.

No son pocos los jugadores que se plantean, ¿para qué una nueva generación de consolas? Pues para esto. Porque Mass Effect no hubiese sido posible en la generación anterior, y porque en la siguiente veremos (o eso espero) maravillas que no podremos ver con la actual. Como dije antes, los modelos de negocios cambian, pero esperemos que siempre haya huecos para compañías comprometidas con sus productos, porque por muchos buenos juegos que podamos disfrutar a lo largo del año, se acaban olvidando, y son las experiencias como las que nos brinda Mass Effect las que prevalecen.

Últimamente se ha puesto de moda crear libros (o un intento de ellos) de muchos videojuegos, como Halo o Gears of War. Y aunque ambas sagas me han brindado muchas alegrías, los libros son una valiente mierda. No podemos decir lo mismo del caso que nos ocupa, con tres libros que no sólo resuelven bien la papeleta, sino que además añaden multitud de información al universo ya creado. El cuarto libro, escrito por un autor diferente, lo dejaremos apartado por el momento. Tampoco podemos dejar de lado la banda sonora, épica en sus tres entregas, creando una ambientación única. A pesar del cambio de compositor en esta última, ha resuelto correctamente el trabajo.

¿A dónde quiero llegar? Pues a que sagas épicas como Mass Effect requieren una gran inversión y un gran sacrificio por parte de quien lo produce (alto coste y tiempo de desarrollo), pero es absolutamente necesario poder seguir contando con productos así, porque son los que nos permiten disfrutar al máximo de los videojuegos, e implicarnos en una historia como nunca antes lo habíamos hecho.

Aquí comienza el destripe de Mass Effect 3, te desaconsejo su lectura si no lo has superado aún.

Tras tres entregas épicas, cuyos análisis y opiniones podéis leer a lo largo y ancho de toda la red, llega el momento de cerrar la trilogía, de decidir si Shepard derrotará a los segadores o si por el contrario no podrá con ellos. El poder de decisión hasta ahora había sido vital, cambiando radicalmente el final, pero esto se ha vistro truncado cuando en la tercera entrega el final es prácticamente idéntico en todas sus versiones.

Personalmente me parece un buen final, aunque muy triste. El universo queda hecho unos zorros, se destruye toda la tecnología segadora y se acaba el intercambio entre especies. Nuestra tripulación acaba toda junta (por lo menos algo positivo) en una isla tropical gracias a la pericia de Jeff (Joker) y las razas vuelven a quedar su merced (o lo que queda de ellas).

Posteriormente, tras los créditos, vemos con un niño pequeño pregunta a su padre o abuelo, un astrónomo, que si eso ocurrió de verdad, y que si él podrá ir algún día a las estrellas. Esta es la parte que menos me ha gustado, ¿cómo es posible? Una cosa es que se hayan perdido los relés de masa y otra muy diferente es que de repente nadie sepa construir una nave espacial. Este final me ha dejado buen sabor de boca, pero una sensación de tristeza y pesadumbre.

No cabe duda de que es un cierre total a cualquier posible continuidad (más allá de “spin offs” que puedan realizarse), pero desde luego no es lo que yo hubiese optado. ¿Queréis saber cual hubiese sido mi final? El siguiente.

Para empezar, los proteanos (sobre todo la IA proteana, con grandes conocimientos) nos hubiesen explicado como construir los relés de masa. Si se han podido fabricar otros artefactos, también podemos con estos. Con estos conocimientos adquiridos, no habría miedo a destruir absolutamente toda la tecnología segadora (salvo la ciudadela, que no se vería afectada ya que la orden de destrucción salía de ella misma), y todos los supervivientes se hubiesen puesto manos a la obra para reconstruir los relés de masa de nuevo.

Una vez terminadas las tareas de reconstrucción, la comunidad intergaláctica crearía vínculos más fuertes que nunca y un consejo formado por todas las especies, y buscando siempre el bien común. Al menos, durante un tiempo, no habría ningún conflicto. Luego habría dos posibles opciones, y es que los miembros de la tripulación (Garrus, Liara…) podrían irse a sus planetas a ocupar altas posiciones (esto me parecería triste y nostálgico) o podrían permanecer unidos en la Normandia garantizando la paz, como una fuerza de élite al igual que antes estaban los espectros.

¿Y Shepard? Pues como no, dos opciones, vivir o morir (y personalmente me gustaría su superviviencia), pero esto es lo de menos. Porque Mass Effect no trata de Shepard, sino de como un hombre consiguió unir a todas las razas frente al enemigo común, y pase lo que pase, será siempre considerado un héroe y un símbolo de unión entre las diferentes especies del consejo.

Es habitual que veamos una película y deseamos que acabe mal, que mueran todos y que el malo se salga con la suya, pero cuando nos ponemos en la piel del protagonista, deseo que el final pueda ser todo lo mejor para él, un “happy ending” en toda regla.

Creo que ya me estoy alargando más de la cuenta, y creo que he expresado todo lo que necesitaba contar sobre Mass Effect, una saga que merece la pena ser jugada, y que probablemente, cuando lo volvamos a hacer dentro de unos años recordando viejos tiempos, volveremos a disfrutarla enormemente. Sólo puedo dar las gracias a todos los responsables de esta epopeya espacial por hacerme pasar más de cien horas entretenido recorriendo un universo que no sabemos si existirá, que probablemente nunca veamos en vida, pero que gracias a ellos hemos podido recorrer con un nuevo apellido, Shepard. Gracias Bioware.

 

La revolucionaria tecnología Tri-Gate y los próximos procesadores Intel Ivy Bridge

A partir de abril, aproximadamente, Intel lanzará sus nuevos procesadores “Ivy Bridge”, que como viene siendo habitual en cada nuevo lanzamiento, mejorarán el rendimiento por aquí y por allá, pero eso no es lo más importante. Lo verdaderamente destacable, es que por fin podremos disponer de la tecnología “Tri-Gate”, algo en lo que Intel lleva trabajando más de una década, desde 2002, y que hoy os voy a intentar explicar de forma clara y sencilla.

La imagen de arriba es muy ilustrativa. A la izquierda tendríamos un transistor (un procesador está formado por millones de ellos) tradicional. Imaginaos que los puntos amarillos son un desfile de unos y ceros, mientras que las partes doradas son puertas por los que pasa toda la información. Sin embargo, en la derecha, como podéis ver la fila ha adquirido volumen, y ahora circula más información ocupando menos superficie. Pues exactamente en eso consiste esta tecnología. ¿Queréis conocerla más en detalle y de forma más visual? ¿Os quedan dudas? Echadle un vistazo al vídeo.

Bien, prosigamos con la teoría. El aumento de ancho de banda a la hora de procesar datos es evidente, ¿verdad? Entonces, ¿qué más aporta? Sencillo, menor consumo y menor generación de calor. Esto va a suponer claras ventajas, no tanto por el consumo (que está bastante estabilizado en los procesadores actuales) sino en la temperatura generada. El calor es uno de los grandes problemas de la informática, y habrá que esperar para ver el impacto final, pero todo parece indicar que esta generación trabajará a menor temperatura que la anterior, aumentando directamente el rendimiento y la vida útil de los componentes. Según los datos oficiales, sólo esta tecnología proporcionará un 37% más de rendimiento y un 50% menos de consumo.

Los fans del overclocking también están de enhorabuena, ya que todo ello conlleva una mayor facilidad para subir la velocidad del procesador cuando andemos más necesitados, aunque cada vez es menos habitual dada la poca variación de rendimiento con algunos megahercios de más.

¿Estáis expectantes? No me extraña, yo también. Pues tranquilos, porque cuando salgan a la venta los nuevos procesadores, casi todos los fabricados en 22nm (no me atrevo a afirmarlo en su totalidad) lo llevarán incorporado, es decir, todas las gamas de procesadores se verán beneficiadas de esta tecnología. En otras palabras, Intel llevará esta mejora a ordenadores de sobremesa, servidores, portátiles y dispositivos de bolsillo como smartphones. Tri-Gate para todos.

Centrándonos más en Ivy Bridge, nos encontramos con algunos aspectos interesantes como soporte completo a USB 3.0 o a PCI Express 3.0, además de tener varias mejoras en los modelos con gráfica integrada (Y tecnología DirectX 11) y permitir el funcionamiento de DDR3 a menor voltaje. Pero lo más interesante quizás sea la reproducción de vídeo a resoluciones de 4K (4096 x 3112), que una vez más será muy interesante verlo aplicado a equipos portátiles o smartphones, donde podría suponer un avance importante y una seria competencia a los famosos AX de Apple o los SnapDragon, que ahora mismo ocupan casi la totalidad del mercado, aunque habrá que permanecer atentos a ver si realmente Intel apuesta por esa vía o se mantiene en sus mercados tradicionales.

Probablemente os estéis temiendo lo peor, el precio. Pues para nada, sorprendentemente, y según todas las informaciones hasta la fecha, Intel mantendrá el mismo precio que en la generación actual en cada producto equivalente, es decir, unos precios muy competitivos a pesar del esfuerzo en I+D que llevan los Ivy Bridge detrás. ¿Qué no os lo termináis de creer? Pues atentos a la siguiente imagen comparando con los i5 e i7.

Sólo queda esperar para ver si se cumplen las expectativas generadas y la tecnología Tri-Gate se implementa como un estándar. No podemos olvidar que esta forma de trabajar, denominada por muchos expertos “3D” (debido al apilamiento de unos encima de otros en lugar del plano tradicional) se está estudiando también en chipsets y memorias RAM, por lo que pronto podría ser algo normal en gran parte de los componentes de un ordenador. Sólo el tiempo lo dirá.

La violencia en los videojuegos y su intento de intelectualización

La violencia en los videojuegos es un tema demasiado manido ya, un tema que no deberíamos ni estar discutiendo, sin embargo hay una serie de personas que se empeñan en sacarlo a la luz cada día, unos con ánimo de criticar al sector y otros con el simple objetivo de demostrar que sus mentes son más adultas y maduras. Pero creo que ambos están muy equivocados.

Los videojuegos mucho han evolucionado en los pocos años de vida que tiene esta industria, y es que hemos pasado por muchas fases, desde el caso omiso total en medios de comunicación a la alabanza pública pasando por la dura crítica. Primero fue desconocimiento, luego sensacionalismo y ahora simplemente es puro interés, pues las distribuidoras de videojuegos no se dejan poco dinero cada año en campañas de publicidad televisiva para nada.

Muchos años se ha pedido que el videojuego estuviese más considerado en nuestra sociedad, y al mismo tiempo muchos usuarios y creadores han esgrimido argumentos a favor haciendo comparaciones con el cine, intentando hacer ver que el videojuego ofrece, en muchas ocasiones, mejores historias que Hollywood, o simplemente, que los gráficos son tan reales que es como estar metidos en una película. Sin embargo algunos no parecen darse cuenta de que así no vamos a llegar a nada. Tenemos una industria que mueve más dinero que el cine y la música juntos, ¿por qué estamos siempre comparando? ¡Defendamos nuestro sector y su identidad propia! ¡Basta de absurdas comparaciones! Los videojuegos se inspirarán en muchas obras artísticas para realizarse, al igual que lo hacen el cine o la música, pero no por ello se pasan el día comparándose. ¿Os imagináis que para defender una película alguien dice que su imagen es mejor que un cuadro o su historia mejor que la de un libro? ¡No tendría ni pies ni cabeza! Y no porque sea mejor o peor, sino porque simplemente no viene a cuento una comparación constante. Si lo mejor que podemos decir de un videojuego es que se parece a una película, mejor nos dedicamos a otra cosa.

Volvamos a los orígenes. ¿Alguien recuerda los primeros videojuegos? Tenían un núcleo principal, el entretenimiento y la diversión, lo demás ha ido viniendo con los años. ¿Por qué Modern Warfare 3 ha vendido una millonada de unidades? Porque su núcleo sigue siendo el mismo, te lo pasas teta jugando, el resto no es más que un envoltorio que se olvida a los pocos minutos. ¿Entretiene una película sin guión? Probablemente pocas, diría que ninguna, pero no quiero arriesgarme. ¿Entretiene un videojuego sin guión? Evidentemente, el ejemplo más claro y sencillo es Tetris. Ya, como estamos viendo, tenemos unas diferencias de base con otros sectores, y estas diferencias han ido moderándose con el paso del tiempo, pero no podemos olvidar nunca el núcleo.

Pasemos a un ejemplo más radical, Heavy Rain. ¿Se parece Heavy Rain a un filme? Sí, en el blanco de los ojos. Cuando te sientas en una butaca delante de una pantalla, vas a ver una historia que unos señores han escrito para ti, mientras que cuando coges el Dual Shock y quieres desvelar quién es el asesino del origami, los guionistas han creado un sinfín de posibilidades las cuáles vas a protagonizar, y tú mismo vas a elegir tu camino para llegar al final y descubrir la historia que otros han preparado, pero cuyo camino tú te has ganado. ¿Qué personajes viven o mueren? Eso, depende de ti. ¿A qué os recuerda esto? Personalmente, creo que se parece mucho más a los libros de “Escoge tu propia aventura” que a una película.

Hablando de libros, ¿recordáis Hotel Dusk? Muchos decían que su mejor cualidad era contar una novela como si fuese un libro (y así nos lo intentó vender Nintendo en los espacios publicitarios). ¡No! ¡Error! ¡Infamia! Lo mejor de Hotel Dusk es que es una aventura, que podrá gustarte más o menos, pero cuenta con un guión interesante y un desarrollo muy pocas veces antes visto en un juego. ¡Es un producto único! ¡Un juego único! Pero nunca un libro, porque entonces volvemos a caer en el error de la comparativa, y no es ni mejor ni peor, pero hay que asumir que son cosas muy diferentes.

¿Y por qué toda esta parrafada? Sencillo, para dejar en evidencia que los videojuegos, arte o no, han tomado su propio camino, y hemos de tener la mente abierta con lo que los creadores nos ofrecen, en lugar de tirar la comparativa fácil. Por un lado tenemos a los que critican cualquier tipo de violencia, esgrimiendo argumentos como que es malo para los niños. A este tipo de personas no les voy a rebatir nada, porque no tiene sentido. Los juegos tienen un regulador de edad al igual que otros productos de entretenimiento, y si un niño tiene acceso a un GTA de la misma forma lo podría tener a una película gore sin ir más lejos. Este es un tema muy frecuente y que no merece la pena seguir tratando.

Sin embargo, me llama poderosamente la atención que cada día son más los propios jugadores, algunos de ellos claro, los que intentan intelectualizar todo lo que ocurre en nuestras pantallas, incluyendo la violencia que en ellas se desarrolla. No paro de escuchar voces diciendo que la violencia sí, pero no la gratuita, sólo si está justificada, sólo si es moralmente correcto, sólo si el personaje se ve obligado a ello en contra de su propia voluntad. ¿Estamos locos? ¿Es que acaso necesitamos justificación alguna para que las piezas de Tetris caigan? ¿Es que la necesitamos para que Mario coma setas, aplaste enemigos y mate a tortugas gigantes para salvar a su princesa? Pues de la misma forma tampoco la necesitamos para entrar en un aeropuerto y masacrar a cientos de civiles.

También podemos leer artículos donde se dice que los videojuegos han evolucionado, que ya no estamos ante DooM, sino ante un simulador bélico donde se nos intenta demostrar la crudeza de la guerra. ¿En serio esa es la conclusión que algunos sacan de Modern Warfare o de Battlefield? Pues creo que están muy errados. Son productos de entretenimiento que buscan impresionar al jugador y para ello usan las imágenes más espectaculares posibles, pero ni de lejos creo que intenten dejar un mensaje al usuario.

No es un libro ni una película, es simplemente un videojuego, y como tal, no necesita ningún justificante para ofrecer diversión al jugador. No nos encontramos ante un filme que pretenda dejar una moralina (aunque ya me diréis que justificaciones necesitaba cualquier actor de los Spaghetti western para ponerse a pegar tiros, ¿o acaso mirar mal a alguien en una taberna ya es una justificación para todos estos gafapastas?), ni ante un libro infantil que tenga que dejar un poso a un niño, sino ante un simple producto de entretenimiento.

Otra cosa bien diferente son los videojuegos educativos, que los hay, y están pensados con el objetivo de desarrollar a los más pequeños o de intentar inculcarles ciertas ideas de una forma más divertida, pero son productos bien diferenciados y que nada tienen que ver con la industria en general.

Jamás nos preocupamos de que Doom, Quake, Unreal Tournament o Counter-Strike usasen violencia gratuita, ¿por qué ahora de repente sí? ¿Nos hemos vuelto gafapastas o simplemente gilipollas? Yo creo que más bien lo segundo, porque por muchos que algunos intenten disfrazarse con sus gafas de pasta, no dejan de ser simples jugadores con aires intelectualoides. Y ya se sabe, aunque la mona se vista de seda..

 

Todos los premios de la gala Spike VGA

Ayer a las dos de la madrugada tuvo lugar la gala de premios Spike VGA, donde se dieron los premios a los mejores juegos del año y se enseñaron un buen número de exclusivas. Como los premios se dieron a porrillo y en muchas ocasiones sin estar del todo detallados en directo, os ofrezco un listado de ellos pulsando “Leer más“. Si queréis ver todos los vídeos en exclusiva mundial que se presentaron, podéis hacerlo aquí.

Leer más

Continue reading…

Cómo sacar el mejor provecho a tu tarjeta gráfica reproduciendo series y películas

Actualmente muchos somos los que vemos películas o series en el ordenador, incluso hay un gran número de usuarios que tiene el equipo conectado a la televisión, o que usa un HTPC para reproducir todos los contenidos multimedia en el salón. Sin embargo, realmente muy pocos usuarios sacan provecho de su tarjeta gráfica a la hora de reproducir vídeo.

No se trata sólo de la calidad de imagen, sino de un conjunto de cosas como el color, el contraste, la nitidez o simplemente el hecho de no saturar la CPU del equipo. Para ello, vamos a usar dos programas de vídeo, que en mi humilde opinión, son los dos más recomendables.

Para mi la configuración ideal son ambos. Por una parte, con Media Player Classic es muy fácil activar la aceleración, mientras que en KMPlayer viene desactivada por defecto y lo podemos usar como reproductor alternativo. ¿Y VLC? Bueno, VLC tiene una fama muy merecida porque durante muchos años permitía ver todo tipo de formatos sin ningún codec de vídeo adicional, pero hoy en día me parece un dinosaurio, con una interfaz nada amigable y pocas opciones de configuración.

KMPlayer lo instalaremos, y lo dejaremos tal y como viene. Por defecto tira de procesador, y tiene tres perfiles de calidad (que podéis ver con el botón derecho durante la reproducción) según sea de potente vuestro procesador. De esta forma, cuando un vídeo nos de problemas acelerado o por cualquier cosa no se vea como queremos, será tan sencillo como abrirlo con KMPLayer y todo perfecto, como si no hubiésemos tocado nada. El reproductor lleva sus codecs originales y no necesita de nada adicional.

Antes de seguir adelante, ¿qué es DXVA?. Se trata de una API de Microsoft aplicada a Windows Vista, Windows 7 y Xbox 360, que permite usar los pipelines (usados para rasterizar la imagen) para aplicar varias funciones nativas a la reproducción de vídeo.

Media Player Classic por defecto tiene la aceleración activada, y podemos comprobarlo porque cuando lo pongamos en movimiento, abajo a la izquierda pondrá DXVA. Pues bien, en estos momentos ya está usando la gráfica, así que ahora vamos a realizar dos acciones: configuración de MPC y configuración de los drivers de nuestra tarjeta.

A continuación vais a ver muchas capturas comparativas, pero como siempre también dependerá de vuestro monitor como las veáis. Yo voy a intentar hacer una guía optativa, pero como siempre lo mejor es que cada uno vaya experimentando y probando los ajustes hasta que encuentre los más adecuados.

Configuración MPC

Una vez estemos en el programa, procederemos a pulsar botón derecho, shaders y combinar. Nos saldrá un pequeño menú, y tendremos que dejar la configuración tal que así:

Es decir, dejaremos activados deinterlace (blend) y sharpen complex 2  y en ese orden. Por otra parte, tenemos el filtro 16-235 -> 0-255, que hace los colores más intensos pero pierde niveles. Vamos a ver todo esto a continuación más detallado, porque en el siguiente paso veremos que tampoco es definitivo. Si pulsáis “Control + P” activaréis y desactivareis los filtros que acabáis de poner, para poder observar las diferencias.

Configuración de drivers

Tanto AMD Radeon como Nvidia disponen de opciones en sus paneles de control para optimizar la reproducción de vídeo y hacer uso de sus funciones avanzadas. Si disponéis de una tarjeta Radeon HD, os recomiendo ir al panel de control avanzado, y en opciones de vídeo, realizar la siguiente configuración:

  • Basic video color: Lo dejamos como está, desactivado
  • Color vibrance: 40
  • Flesh tone correction: 50
  • Video gamma: desactivado
  • Brighter whites: activado
  • Dynamic range: desactivado
  • Use automatic deinterlacing: Lo dejamos en automático (esto lo explicaremos más a fondo a continuación)
  • Pulldown detection: activado
  • Edge-enhacement: 10
  • De-noise: 64
  • Mosquito Noise Reduction: 50
  • De-blocking: 50
  • Enable dynamic contrast: activado
  • Enforce Smooth Video Playback: activado
  • Apply current video settings to Internet video: activado

Por último, hay una opción denominada “Demo mode”, que partirá el vídeo por la mitad aplicando la configuración en un lado y en el otro no, para que así podamos observar las diferencias. Respecto al “deinterlacing”, se trata de convertir las fuentes entrelazadas (por ejemplo, una captura de televisión) a progresivo. Por fortuna, hoy en día lo normal es que todos los contenidos sean progresivos, pero si no lo fuesen, el mejor desentrelazado es el “Vector adaptative”. Si un vídeo es progresivo y le aplicamos este filtro, empeoraremos su calidad.

En la imagen podéis ver como el VA (vector adaptative) consigue mejores resultados que cualquier otro método. Respecto a tarjetas gráficas Nvidia, por desgracia no ofrecen unas opciones tan amplias, pero sí que podemos seleccionar que el vídeo lo configure ella y no la aplicación desde sus opciones avanzadas.

¿Qué ventajas me ofrece usar DXVA?

Todo esto no es un mero capricho ni simplemente una mejora visual, se trata de que con CPU’s más modestas podemos conseguir reproducir vídeo a 1080P sin problemas, o simplemente ver una película mientras otros procesos se ejecutan en segundo plano.

Lo que veis en la imagen es el consumo de un procesador reproduciendo una película a 1080P 3D. Mientras que con aceleración gráfica apenas consume un 10% de a CPU, sin ella sube hasta casi un 90%, dejando el equipo imposibilitado  para otras tareas.

¿Y en cuánto a la calidad de imagen? Pues también, evidentemente, hay mejoras. Tanto AMD Ati como Nvidia se esfuerzan en demostrarnos cuánto mejoran los vídeos con sus gráficas. Si bien se trata de imágenes promocionales, nos hacemos una idea (Pinchad en ella para verla en grande).

La hora de la verdad: las pruebas

Como siempre se suele decir, una imagen vale más que mil palabras, así que me he decidido a tomar capturas de algunos vídeos para enseñaros las diferencias en entornos reales. Vayamos paso por paso.

En la imagen podéis ver a la izquierda la imagen como era la del vídeo original y a la derecha con los shaders activados (Control + P) . Como veis quizás añade dientes de sierra, pero es más nítida, más colorida, etcétera.

En las imágenes a la izquierda podéis ver el filtro 255 desactivado y a la derecha activado. Como veis, realza los colores pero a cambio pierde algunas tonalidades. Para el anime sin lugar a dudas es ideal, pero para una película perdemos una cantidad de detalles notables, algo que no interesa en ningún caso. Ahora vamos a pasar a las mejoras en la configuración de drivers de la gráfica

A la izquierda podéis ver la imagen con los shaders activados (pero sin 255), mientras que a la derecha, además de tenerlos activos, entra en juego la gráfica. Como podemos ver, el contraste es notablemente mejor y también aumenta la nitidez, pero con ello los dientes de sierra.

A la hora de una imagen de una película en situaciones algo oscuras, como podéis ver, apenas se aprecia la diferencia, y mucho menos en movimiento. Pasemos a la última imagen.

A la izquierda la imagen original, en el medio con los shaders activados (sin 255) y a la derecha con los drivers de la gráfica modificados. Como podéis ver, ante un contenido de calidad en alta definición, la diferencia de nitidez es imperceptible, pero sí que se nota el aumento ligero de contraste en la tercera imagen.

Conclusiones

Como se suele decir, nunca llueve a gusto de todos, y menos en algo tan subjetivo como los colores óptimos de un vídeo. Personalmente, prefiero la combinación de una imagen fiel a la original pero con colores vivos, no con una capa blanquecina como ocurre con muchos contenidos. Por ello, mi recomendación personal es que los shaders los activéis casi siempre salvo para contenidos en 1080P y alto bitrate que no necesitan de filtro alguno, mientras que en los drivers de la gráfica sólo activaría la mejora de color, que es lo que realmente se nota.

Si vosotros encontráis una configuración mejor o más a vuestro gusto, no dudéis en compartirla.

IPv6: ¿Qué cambia? ¿En qué nos afecta?

Ante todo, una introducción para los que no están muy puestos en el tema. Actualmente, nuestra dirección IP es un número de 32 bits agrupado en cuatro octetos, que serían los famosos X.X.X.X. Con el aumento de dispositivos móviles, las direcciones IPv4 se han agotado, por lo que es necesario el cambio a IPv6, el cual se lleva planteando ya desde hace algunos años.

IPv6 es un sistema de direcciones mucho más escalable, potente y amplio que IPv4, utiliza un sistema de direcciones basado en 128 bits del estilo 2001:0db8:85a3:08d3:1319:8a2e:0370:7332, con lo que ya os podéis imaginar que podemos tener infinidad de direcciones (340 sextillones para ser exactos).

La principal ventaja de este nuevo sistema es, obviamente, el aumento del número de direcciones disponibles, pero IPv6 tiene unas cuantas ventajas más que lo hacen aún más apetecible. Gracias al nuevo sistema de empaquetamiento tenemos una mejora en el direccionamiento que nos posibilita crear redes mucho más eficientes; también permite la autoconfiguración de direcciones gracias a mensajes entre los router e incluso podemos realizar muy eficientemente el multicast, que consiste en enviar un paquete a varios destinatarios. Y esas son solo algunas de las características, ya que hay muchas más que afectan a gestión de redes que hacen babear a cualquier administrador de redes.

El protocolo IPv6 tiene direcciones con una longitud de 128 bits, más que suficientes para dar direcciones a toda la humanidad aunque esta se multiplicase por varias centenas. Es decir, aunque no se puede decir que literalmente sea infinito, en la práctica es casi imposible que completemos todas las direcciones posibles.

Tipos de dirección

En las redes IPv6 podemos distinguir tres tipos diferentes de direcciones, aunque todas tienen 128 bits de longitud:

  • Unicast: Direcciones que se aplican a una única interfaz de red. Cuando se envía un paquete se entrega a la única interfaz de red que posee esa dirección, es decir, son direcciones únicas en la red.
  • Anycast: Dirección que identifica a un conjunto de interfaces y a diferentes nodos. Un paquete enviado a una dirección Anycast será entregado sólo a una de las interfaces que comparte esa dirección. Una característica es que permite redundancia, es decir, si disponemos de varios enrutadores, podemos configurarlos para que todos compartan una misma dirección.
  • Multicast: Dirección que también identifica a un conjunto de interfaces, pero en este caso los paquetes son enviados a todas las interfaces que compartan dicha dirección. De esta forma, una dirección multicast es la adecuada para retransmisiones broadcast.

Representación

Las direcciones IPv6 tienen 128 bits, y se agrupan en ocho grupos de 16 bits, de forma que la dirección es: X:X:X:X:X:X:X:X.

  • Pongamos un caso real: FF01:0000:0000:0A00:12DF:0000:0144:0001
  • Sin embargo, se puede resumir en: FF01:0:0:A00:12DF:0:144:1
  • Los ceros también se pueden conmutar por “::”, FF01::A00:12DF:0:144:1
  • Si la dirección convive en un entorno mixto con IPv4, las direcciones se mezclan dando lugar a direcciones conjuntas, ::FFFF:192.168.150.23
  • En las direcciones tipo Unicast, podemos distinguir dos tipos:
    • Direcciones sin enrutadores, con redes de IPv6 autoconfiguradas, FE80::<ID de interfaz>/10, donde la ID de interfaz es la dirección MAC del interfaz de red
    • Direcciones locales, donde un prefijo indica el lugar (una red local o un campus universitario) y el paquete no debe salir nunca de dicha red, donde la estructura sería: FFC0::<ID de subred>:<ID de interfaz>/10

Direcciones reservadas

Para evitar problemas y que la transición de IPv4 a IPv6 ocasione el menor número de inconvenientes, se han reservado algunas direcciones.

  • Dirección de loopback o retorno: Se trata de la dirección “::1” (127 ceros con un 1 al final), que se asigna a una interfaz virtual en bucle que comprueba protocolos. Es el equivalente de 127.0.0.1
  • Dirección no especificada: Dirección equivalente a ”::”, que nunca debe ser asignada porque representa la situación de equipo recién conectado esperando asignamiento definitivo.
  • Dirección de túnees dinámicos IPv6 sobre IPv4: Se trata de direcciones “::<dirección IPv4>”, con 96 ceros seguidos por 32 bits que representan una dirección IPv4. Se usa para transmitir IPv6 a través de redes IPv4 de forma transparente.
  • Direcciones IPv4 sobre IPv6: Direcciones del tipo “::FFFF:<dirección IPv4>”, es decir, 80 bits a cero seguido de 16 bits a uno (FFFF en hexadecimal) y 32 bits representando una dirección IPv4. Su uso es que los nodos que soportan IPv4 puedan seguir en IPv6.

Cambios notables

Hay algunos cambios notables respecto a IPv4 que el usuario si notará, entre los que hay que destacar que los operadores nos asignaran /48 bits para nosotros, o lo que es lo mismo, tendremos 16 bits libres para asignar direcciones en nuestra red local. Esto se ha pensado de cara al futuro, donde hasta las cortinas del salón tendrán su propia dirección. Es decir, las direcciones locales de ahora en adelante no estarán aisladas como ha sucedido hasta ahora, sino que tendrán su propia IP única en el mundo.

Espero que el texto os haya servido de ayuda, estaré encantado de responder cualquier duda (siempre y cuando la conozca, claro está). Me gustaría terminar agradeciendo a XatakaON sus magníficos textos sobre la materia, así como a la editorial McGraw-Hill por su libro sobre Redes Locales.

¿Sirven realmente para algo los #FF (FollowFriday) o son un mamoneo?

Twitter está creciendo exponencialmente y a un ritmo vertiginoso, pero esto no es nuevo, es algo que ya se sabía desde hace algunos años, motivo por el cual en enero de 2009 un usuario comenzó a recomendar un usuario todos los viernes, con el fin de identificar a los usuarios interesantes de Twitter. Desde entonces, la moda ha ido creciendo hasta convertirse en trending topic prácticamente todos los viernes, pero, ¿hasta que punto es útil?

Antes no existían las recomendaciones de usuarios, motivo por el cual los consejos personales eran más importantes que nunca, pero ahora ha dejado de tener sentido en parte. No obstante, cuando un usuario dice “Recomiendo a X usuario por X razones” entonces hay que tenerlo en cuenta.

Ahora bien, no tiene sentido la situación actual, en la cual los usuarios empiezan ristras de “#FF @nick1 @nick2 @nick3” y así llegando incluso a recomendar a veinte o treinta usuarios. ¿Alguien hace caso de esos mensajes? ¿Son atractivos para alguien? Yo llevo desde 2007 en Twitter, y cuento ya con casi 900 seguidores, por lo que cada semana decenas de usuarios recomiendan seguirme y la web FollowFriday me cuenta como soy de los usuarios que más recomendaciones reciben, sin embargo, los viernes, apenas tengo nuevos followers.

He llegado a la conclusión de que no sirven para nada si no se utilizan correctamente, porque hacer cadenas de seguidores sólo porque son nuestros amigos no tiene ningún fin. Lo único que tiene sentido es recomendar con sentido común, con razones de peso, o simplemente porque te apetece, pero a un usuario, no a decenas.

Por otra parte, tampoco puedo entender los comentarios de algunos que llegan a enfadarse porque no se devuelve el #FF o porque te has olvidado de él. No señores, esto no tiene ningún sentido, para chuparnos las pollas hay otros sitios, Twitter no debería ser así.

Y dicho esto, agradezco a todos los amigos que me recomiendan cada viernes porque sé que lo hacen con buena intención, pero deberíamos reflexionar sobre su uso. Y es que el actual no sólo no sirve para nada, sino que tapa a los que de verdad si lo hacen. Si lo hiciésemos, podríamos recuperar unas recomendaciones de verdad, aunque con sinceridad, yo hago FollowFriday cuando me apetece, que para eso es mi Twitter y me lo follo cuando quiero :).

Sobre PSN: Hablemos de informática (Actualizado)

Actualización: Debido a todas las informaciones que están saliendo en los últimos días, vamos a ofreceros nuevas filtraciones gracias al aviso de Pakoito. Para empezar, Sony asegura que los datos de las tarjetas de crédito estaban cifrados, pero reconociendo que el resto no. Sin embargo, gracias a algunos usuarios sabemos que esto es mentira, habiéndose dado a conocer este hecho mucho antes de toda esta polémica. Pero la cosa no queda aquí, y es que gracias a los logs de conversación de algunos reconocidos usuarios hemos tenido acceso a nueva información.

Para empezar, la base de datos de los usuarios de PlayStation Network está a la venta, incluyendo tarjetas de crédito y sus códigos de seguridad CVV. También se sabe que se le ofreció a Sony la posibilidad de comprarla, pero la oferta fue rechazada. Pero esto no es nada, lo más interesante viene ahora. Gracias a un par de logs (1 y 2) y al usuario SuperKen7 que ha revisado toda la información sabemos que:

  • Sony colecciona un montón de información y la envía a sus servidores, a saber: información de todo lo que hay en los pendrives que insertas en el USB, juegos que pones en la consola, cosas que haces en los menús, etcétera.
  • Las comunicaciones, en origen, iban sin cifrar por Internet, incluyendo nuestros datos bancarios (sin cifrado https siquiera).
  • Los logs de acceso a los servidores estaban expuestos a todo el mundo, sin ningún tipo de cifrado ni encriptación.
  • Las funciones de poner un servidor en modo mantenimiento eran públicas, y cualquiera con conocimientos podía hacerlo.
  • También se menciona que alguno de los parametros de los servidores permite modificar si la descarga de un juego es de pago o es gratuita (debido a esto es por lo que algunos usuarios descargaban contenidos gratuitos).

En definitiva, que PlayStation Network era un coladero, fuente de inseguridad para todos nuestros datos, a los que, según parece, cualquiera podía tener acceso. Veremos como evoluciona, pero las reiteradas mentiras de Sony no parecen ser el mejor camino para retomar la confianza de los usuarios. De momento, sus acciones ya han caído un 8% en apenas una semana. Os dejamos con el artículo original.

Artículo original: Como bien sabréis ya a estas alturas, PlayStation Network lleva más de una semana sin funcionar, dejando a millones de jugadores sin la posibilidad de jugar online, descargar contenidos de la tienda virtual o simplemente ejecutar algunos juegos descargados de la red.

Sony, de forma oficial, ha guardado un silencio preocupante (diciendo en un principio que se trataba de un parón por mantenimiento), y casi una semana más tarde comunicando que se trataba de un ataque externo a su red, motivo por el cual habían decidido re-hacerla desde cero.

Hoy, definitivamente hemos conocido la verdad (o al menos eso pensamos) y es que alguien accedió a los servidores de Sony y sacó sustanciosos datos personales: nombre y dirección del usuario, email, fecha de nacimiento, contraseña, PSN id, historial de compra, dirección de facturación, pregunta de seguridad de la contraseña, número de tarjeta de crédito y fecha de expiración. En fin, si queréis conocer todos los detalles os invito a leer este artículo, lugar de donde además he sacado la cabecera que ilustra la noticia.

Muchas son las disputas entre los usuarios sobre la responsabilidad de los datos y las medidas legales que se pueden emprender, así que voy a intentar aportar un poco de luz (y animo a que los usuarios también lo hagan en sus comentarios) sobre el tema.

En el sector informático, la empresa es la encargada de mantener a salvo los datos de sus clientes, usando para ello todos los medios que tengan a su alcance. Si en una empresa se filtran datos, además de investigar su origen, el encargado de ello puede ser puesto de patitas en la calle, además de denunciado si los datos son sensibles y no ha cumplido con sus obligaciones legales. Si esto sucede en una empresa de apenas un centenar de trabajadores, ¿qué puede pasar en Sony?

Por otra parte, hablando de leyes (al menos en España), la Ley de Protección de Datos obliga a usar sistemas como la encriptación y el cifrado para datos sensibles (como puede ser una contraseña o los datos bancarios), de forma que aún siendo robados los datos, nadie sea capaz de leerlos. Sin embargo, se ha confirmado (se podía acceder mediante el navegador de internet en nuestra propia cuenta) que Sony no tenía dichos datos cifrados, de forma que quien los ha robado, los tiene al completo. Esto de por sí supone un delito, y es muy grave. Y encima, los usuarios están siendo comunicados con una semana de retraso, lo que supone otra nueva vulneración de las leyes. Gracias a Anchang, podéis ver como Sony no encriptaba nada, sólo entunelaba todo bajo https, algo a todas luces ineficiente cuando te entran hasta la cocina.

Por lo tanto, si un hacker ha conseguido acceder a la red de Sony y ha robado los datos, a los usuarios nos da exactamente igual, no importa si ha sido Pepito o Juanito, ya que con esa persona tendrá que lidiar la multinacional nipona. A nosotros, los usuarios, nos importa que Sony ha manipulado de forma insegura nuestros datos, y encima manteniéndolos sin ningún tipo de seguridad de alto nivel como la encriptación, algo que hasta la página web más remota tiene hoy en día. Moralmente la culpa será de un malnacido que ha robado los datos, pero legalmente, es Sony la responsable de ellos. Y esto en informática es así, no hay más.

Si realmente las tarjetas empiezan a recibir cargos, puede ser una de las mayores avalanchas de denuncias que se le puede venir encima a una compañía, porque son muchas las negligencias que han cometido. Para que os hagáis una idea de hasta donde está llegando, apenas unas horas después del comunicado, un senador de Estados Unidos ya ha pedido explicaciones a la compañía.

¿Medidas a tomar? Yo os recomendaría cambiar la contraseña de vuestro correo electrónico si coincidía con la de PlayStation Network, además de vigilar atentamente los movimientos bancarios. Sólo queda esperar y ver como se desarrolla la situación, pero no deja de ser aterrador que una multinacional de tal magnitud pueda cometer errores tan graves con los datos de los usuarios. Lamentable.

¿Por qué algunos juegos quiero que se acaben cuanto antes?

Hace relativamente poco traté en el blog el tema de los juegos cortos, así que siguiendo un poco la estela del artículo, me ha dado cuenta de que a veces me paso la vida corriendo en algunos juegos, deseando que se acaben. ¿Por qué puede ser esto?

No son pocas las ocasiones en las que los usuarios comentan con tristeza que están desilusionados con los videojuegos, que ya no es lo que era, o que llevan algunos meses de bajón en su hobby favorito, aunque por suerte siempre acaba saliendo algún título que les devuelve la ilusión. Casi todos hemos pasado por esa fase, pero, ¿es culpa de los propios títulos?

En los últimos años me ocurre siempre lo mismo con muchos títulos, que estoy deseando ver los créditos. Pongamos por ejemplo (aunque es aplicable a muchos títulos) Crysis 2. El juego es bueno, tiene una atmósfera genial, unos gráficos que quitan el aliento y un ritmo bastante intenso. Sin embargo, a medida que voy jugando, cuando llevo unas tres o cuatro horas con el mando en la mano, mi cabeza no puede dejar de pensar en una cosa: acábate ya.

El segundo caso podría ser Mass Effect 2 o Portal, juegos de diferentes géneros pero con un elemento en común: el argumento engancha, quieres saber como acaba. Sin embargo, la calidad jugable es tan elevada que en ningún momento uno tiene esa sensación, se disfruta minuto a minuto.

Por el contrario, podemos encontrarnos con títulos donde la historia es inexistente y prima la jugabilidad, Dirt 2 o Ridge Racer sin ir más lejos. En éstos, pasa igual que con los citados en el último párrafo, se disfrutan a cada momento, sin pretensión alguna.

Evidentemente podríamos hacer cientos de líneas citando ejemplos, pero creo que con ésos tenemos suficiente para hacernos una idea de por donde van los tiros. ¿Por qué puede ser que los primeros tenga tantas ganas de acabarlos? Desde luego malos no son, pero creo sinceramente que se está cayendo en la repetición constante de situaciones, títulos que no innovan nada, y que más allá de tener un skin propio, no ofrecen absolutamente nada nuevo al jugador.

En esta generación tenemos casos muy marcados de identidades propias, como podría ser Call of Duty, Gears of War o Bioshock, pero hay otros cientos de títulos que en este sentido apenas pasan de la mediocridad, copiando elementos sin ton ni son de otros y pegándolos en su desarrollo. Al final, el jugador se aburre, porque un guión de una película (cuya duración no suele exceder las dos horas) no lo puedes alargar hasta las 8 u 10 horas si no tienes un apartado jugable muy robusto de por medio, porque acaba siendo aburrido, y al final el jugador recorre los escenarios corriendo y deseando llegar al final.

Una película necesita de un guión (ya sea un filme cómico, dramático, etcétera), mientras que un juego puede funcionar por si solo sin necesidad de él (véase Tetris, el ejemplo más sencillo). Sin embargo, cuando los desarrolladores meten una buena historia a un videojuego, no deberían olvidar que lo más importante es la jugabilidad, es su pilar principal, porque sin ella, no son nadie.

Un buen ejemplo de ello podría ser Heavy Rain, título que si bien decide apostar por contarte una historia, tiene un apartado jugable único, metiéndote como nadie en la piel de los protagonistas. Sin embargo, si su jugabilidad hubiese sido la de una aventura de disparos, apenas pasaría de título mediocre.

En resumen, lo más importante de los videojuegos sigue siendo la jugabilidad, y si una buena historia no la sustentas en dicho pilar, el juego acabará desmoronándose por todas partes. Podrán ser excelentes productos si los analizamos con una calculadora como hacen algunos analistas, pero a la hora de que el jugador te de sus impresiones, te dirá que le ha aburrido. Y no creo que nadie juegue para aburrirse, ¿no?

¿Es importante el modo online en una consola portátil?

En los últimos tiempos los modos multijugador han adquirido una importancia vital en los videojuegos. Y diría más, creo que la importancia de poder ser sociable, poder meter tu universo virtual en Twitter y Facebook es claramente el futuro, pero, ¿hasta que punto es importante?

Nintendo DS fue la primera portátil en tener online, deficiente en la mayoría de los casos, y repleto de tramposos. A la zaga le vino PSP, que si bien contaba con modos mucho más elaborados, tampoco era ninguna maravilla hasta que hace algún tiempo actualizaron todo su sistema para ser compatible con PlayStation Network.

Nintendo con 3DS desde el principio dejó claro que iba a ser la consola más conectada de su historia, y así es, no sólo a nivel local, sino que cuando estamos en casa aparecemos siempre online y a que estamos jugando para el resto de amigos. Sin embargo, el sistema es imposible de seguir desde un PC, jamás podremos tener un “Gamercard” con nuestro historial de juegos, de la misma forma que compartirlo en Twitter o Facebook parece algo imposible. Sony sin embargo ha puesto toda la carne en el asador en este sentido, anunciando la NGP con posibilidad 3G para estar siempre online, y desde luego suponemos que con un perfil de jugador visible desde las redes sociales, como ya pasa con PlayStation 3.

Centrándonos en el multijugador en sí, los títulos de lanzamiento de 3DS han defraudado ya que sólo uno, Street Fighter IV, tiene modalidad online. No paro de leer análisis que critican a títulos como Pro Evolution Soccer o Ridge Racer por no incorporarlo. Sin lugar a dudas sería algo a tener en cuenta, pero, ¿hasta que punto?. Sinceramente, si me compro una consola portátil, es para jugar en el Metro, en el autobús, en la calle, en casa de un amigo… no en casa. Vale, probablemente todos nos hemos echado un vicio en la cama tumbados antes de dormir, pero no creo que eso sea una constante. Es evidente que nunca está de más, pero creo que las veces que lo usaremos se pueden contar con los dedos de la mano.

Desde luego, en mi humilde opinión, es más importante que una consola esté conectada al mundo social antes que el propio juego multijugador en sí, máxime tratándose de una consola portátil. Otra cosa bien diferente es que cuente con 3G incorporado, lo cual para muchos será un acierto y para otros un gasto inútil, pero eso, queridos amigos, es otra historia.

¿Es malo que un videojuego sea corto? ¿Es importante la rejugabilidad?

En los últimos años se ha incrementado exponencialmente el coste de desarrollo de un videojuego, algo que ha llevado a los estudios y a las distribuidoras a buscar modelos de negocio que aporten un dinero extra, como pudieran ser los contenidos descargables, debatibles en algunos casos, pero no en este momento. Por su parte, los desarrolladores también sufren cierta presión, estando obligados a trabajar contrarreloj y en muchos casos a meter un modo multijugador con calzador.

Activision encontró una formula de éxito con Call of Duty, una campaña breve pero intensa y un multijugador de infarto, con un montón de extras por descubrir a medida que se juega, de forma que nos garantiza horas y horas pegados a la pantalla. Sin embargo, a pesar del “boom” de popularidad que han sufrido los modos multijugador con la última generación de consolas, son muchos los que aún prefieren una campaña larga y duradera, y reclaman que no pueden pagar 70€ por un entretenimiento de cuatro o cinco horas.

Hay casos y casos, porque no es lo mismo Modern Warfare que te deja con un impresionante sabor de boca a Modern Warfare 2, que bajo mi punto de vista te deja con la sensación de ser un, me van a perdonar la expresión, polvo a medias. ¿Es culpa de la duración? No lo creo, más bien de una narrativa mal llevada y un guión mal contado.

Por otra parte, son muchos los que defienden que un shooter de diez horas o más acabaría cansando, y por eso es mejor que sea breve. Bajo mi punto de vista, más que cansar, es que es muy difícil mantener un nivel tan elevado de calidad en una campaña larga. Con sinceridad, prefiero un Call of Duty de 5 horas  o un Uncharted de 7 horas antes que alargarlo hasta las quince y encontrarme con un montón de momentos aburridos y misiones tediosas, metidas con calzador, de relleno.

Creo que la industria del videojuego evoluciona poco a poco a medida que la media de edad de sus usuarios (lógicamente hablamos del mercado tradicional) avanza, usuarios que cada vez tienen menos tiempo libre y prefieren una experiencia breve pero satisfactoria. Evidentemente cuando hablamos de mundos más desarrollados, como podría ser Mass Effect o cualquier título de rol, el usuario pide más, profundizar lo máximo posible en ese universo, pero cuando nos pasamos a los juegos de acción, creo que el usuario ya no quiere un increíble mundo rico en detalles, sino que por delante de sus ojos pase una película de acción espectacular, lo que podríamos denominar un videojuego palomitero.

Otra cosa es que un producto dure menos de cuatro horas y encima sea del montón, pero entonces no estamos hablando de un juego corto, sino de un mal producto y así se verá reflejado en las críticas, pero jamás podré entender que a un título se le achaque ser corto cuando te ha dado cinco o seis intensas horas de diversión. Si no me gusta el relleno en las series de televisión, tampoco me gusta en los videojuegos. Evidentemente todos preferiríamos un producto largo e intenso, pero el coste y la duración del desarrollo dudo que dejase rentabilidad de por medio.

Y aprovechando que el Pisuerga pasa por Valladolid, tampoco entiendo que a los títulos se les achaque ser poco rejugables y se les castigue en la nota. Me van a perdonar los señores críticos, pero creo que la rejugabilidad es una costumbre heredada de los títulos arcades que apenas duraban un suspiro y de alguna forma había que seguir sacando provecho al cartucho, pero no creo que hoy en día sea un factor importante.

Hace poco salieron las estadísticas de Assassin’s Creed 2 y dijeron que apenas un 20% de los compradores se lo habían terminado, y si nos vamos a títulos de más empaque como Mass Effect 2, la cifra apenas logra alcanzar el 50%. Si muchos consumidores no se acaban ni siquiera el producto una primera vez, ¿no pensáis que se exagera con la importancia de volverlo a disfrutar? Hay personas a  las que no le gusta ver una película dos veces (al menos en un corto periodo de tiempo) ni leerse un libro dos veces, ¿Por qué iban a querer hacer eso en un juego? Con un producto arcade como Tetris o Mario Kart evidentemente sí, con una buena historia de por medio, no.

Y vosotros, ¿os conformáis con un producto corto pero intenso o preferís mayor duración a cambio de algún relleno?

Media Markt, o como cargarse las tiendas de videojuegos

Hace poco menos de una semana que la Nintendo 3DS se encuentra entre nosotros, y todos sabemos la ofertaza que lanzó la cadena Media Markt en todas sus tiendas, la consola a  229,90€. ¿Sabéis cuanto le cuesta cada Nintendo 3DS a Media Markt? 230€.

Está claro que a todos nos gusta comprar lo más barato posible, pero en realidad, ¿a que estamos contribuyendo? ¿cómo es posible ser rentables vendiendo los productos tan baratos? Muy sencillo, usan los videojuegos como reclamo para compras adicionales. Ya que entras, y encima subes a la segunda planta en la mayoría de sus centros, ellos suponen que algún otro producto atraerá tu mirada y lo acabarás comprando. Por ejemplo, un cable HDMI de 2€ a 20€, o una tarjeta de memoria de 10€ a 25€.

Es decir, mediante la posición de algunos productos en un precio muy barato te hacen creer que en general toda la tienda es barata, cuando es en los pequeños accesorios donde realmente te están metiendo el palo.  Y los videojuegos son uno de sus principales reclamos, con el objetivo de intentar acabar con todas las tiendas y acaparar mayor parte del mercado, pero tendría que haber algún tipo de regulación al respecto, porque vender los productos a un coste inferior al real es una táctica contra la que el pequeño comercio no puede competir, porque no tiene esa serie de productos adicionales.

Aún recuerdo cuando trabajaba en GAME, y el mismísimo día de lanzamiento vinieron unos señores de Media Markt y nos compraron 200 Pro Evolution Soccer, todos los que teníamos en la tienda. Evidentemente no te puedes negar a vender un producto, pero su único objetivo era dejarnos sin stock del producto para que todo aquel que viniese a la tienda no pudiese comprarlo, acudiese a Media Markt y se quedase con un mensaje: “En MM, sí que lo tienen”. Evidentemente, comprar tal cantidad de juegos a 70€ y revenderlos ellos a 55€ es de todo menos rentable.

Nunca me han preocupado demasiado las multinacionales, que se peleen entre ellas que yo compraré al que me ofrezca el producto más barato, pero creo que debe haber unos límites. Principalmente porque si no, el día de mañana, nos encontraremos con que son ellos los únicos que venden juegos, y pondrán el precio que crean conveniente.

Personalmente, prefiero un mejor trato al cliente y una mejor garantía de cara a problemas con las devoluciones antes que adquirir un producto ligeramente más barato. En tu mano está pararles los pies.

Actualización: Hoy salta a la luz que en el lanzamiento de 3DS, los señores de GAME UK compraron consolas a una cadena generalista, Tesco, para evitar quedarse sin stock. Está claro que en todas partes cuecen habas.

Valve, ¿hasta dónde vas a llegar con Steam?

Interfaz de 2003

Mucho tiempo ha pasado desde la interfaz de Steam que podemos ver en la imagen, que data de 2003. Ese año fue el escogido por Valve para dar carpetazo a los servidores WON (Steam llevaba en pruebas desde finales de 2002) e iniciar una plataforma propia de servidores mediante un cliente siempre conectado, cuyo principal objetivo era acabar con la piratería y los trucos en Counter-Strike, a la par que mantener todos los juegos actualizados a la última versión de forma automática.

Yo llevo en Steam registrado desde ese mismo año, y aún puedo recordar las quejas de toda la comunidad en sus inicios, pero como toda plataforma necesita su tiempo para madurar y crecer. El sistema de amigos no funcionaba del todo bien, el buscador de servidores era algo lento, las copias de seguridad eran demasiado rudimentarias, etcétera. A finales de 2004, antes de lanzar la joya de la corona, Half-Life 2, se renovó la interfaz por completo: tienda online, red de amigos algo más funcional pero sin chat, etcétera. Como nota off-topic, aún recuerdo como algunas revistas españolas ponían como único punto negativo para Half-Life 2 que había que usar Steam, a la par que recuerdo la indignación de muchos usuarios con este tema, ya que salvo problemas puntuales, resultaba una verdadera maravilla.

Interfaz de 2004/2005

Fue realmente en 2007 cuando Steam dio un enorme salto de popularidad con la renovación completa de la intefaz, la tienda con juegos de otras compañías, una red de amigos totalmente funcional, separación de juegos, herramientas, contenidos multimedia, etcétera. De repente, Steam molaba, Steam era cool y todo el mundo quería tener una cuenta. En la actualidad, cuenta con más de 30 millones de cuentas activas (iniciadas en el último mes).

Además de su disponibilidad para Mac desde el pasado año, cuando en el E3 salió Gabe Newell en la conferencia de Sony y anunció Steam para PlayStation 3, todos supimos que Valve había decidido apostar a lo grande, llevando su plataforma más allá del PC, llevando con ella todas sus bondades. De hecho, si no fuese por los impedimentos de Microsoft, Steam también estaría en Xbox 360.

Steam no es sólo una plataforma de descarga virtual, es toda una plataforma de juego en la nube, con una red de amigos estupenda, sincronización de partidas guardadas, etcétera, por no hablar de la futura multiplataformidad que permitirá el juego cruzado si así lo desean los desarrolladores.

Yo llevaba ya unas semanas pensando que con la cantidad de juegos de desarrollo amateur que tiene Steam (al más puro estilo Xbox Live Arcade o PlayStation Network) sería muy interesante verlo en alguna consola portátil, ya que serían juegos que ofrecen una experiencia perfecta para jugar en el Metro, en el autobús, etcétera. Sin embargo, realmente dudo mucho que Valve se atreviese a lanzar una consola portátil, ya que aunque hace poco anunciaron que sus empleados generan más dinero que los de Google o Apple, siguen siendo una compañía pequeña. Sin embargo, viendo las recientes alianzas con Sony, contar con Steam en la PSP 2 o NGP sería todo un impulso de ventas para la plataforma y un servicio excepcional para los usuarios.

A los desarrolladores no les debería costar mucho adaptar juegos de puzzles, musicales, etcétera a otras plataformas, y a cambio obtendrían un mercado mucho más grande de venta. Evidentemente con Nintendo sería una batalla perdida debido a lo cerrados que son con sus productos, pero si Valve mueve bien los hilos podría llegar a poner Steam en muchos dispositivos.

Los usuarios ahora mismo estamos perjudicados por una separación de plataformas que muchas veces nos hace no poder jugar con nuestros amigos o incluso adquirir un producto dos veces en diferentes plataformas, y resulta evidente que Microsoft y Sony no van a hacer ningún acuerdo para unir sus redes con nadie porque son empresas, y su objetivo es imponerse sobre las demás. Sin embargo, si Valve unifica a todos bajo una misma red, realmente sería cosa de los desarrolladores decidir si quieren hacer uso de la plataforma o no, los usuarios saldríamos ganando y las compañías estarían abiertas a un mercado más grande, por lo tanto podrían ingresar más dinero. Sí, ahora mismo suena como algo hipotético, pero también lo era que Steam saliese en una consola hace un año, y mirad ahora.

Por último, ayer mismo Valve anunció que está desarrollando una interfaz de Steam para televisiones y controlable por mando. ¿Estamos ante un servicio en la nube como OnLive o simplemente se tratará de ejecutar los juegos del PC en la tele tipo Apple TV? Yo particularmente apuesto por lo primero, y sinceramente, sería todo un punto a favor para aquellos que no usan Steam debido a los problemas que el PC lleva asociados (configuración, drivers, hardware, etcétera), y que de esta forma quedarían eliminados.

No sé hasta donde va a llegar Valve con Steam, pero está claro que apuestan a lo grande y aquí todos estamos ganando: las desarrolladoras están ingresando más dinero y los jugadores obtenemos múltiples ventajas frente al mercado tradicional. El futuro indicará el camino, pero yo lo tengo claro, ¡larga vida a Steam!

Agradecimientos al estupendo foro de HL2Spain por las imágenes de la interfaz de Steam y a FuKuy por la imagen conceptual de Steam en TV.

Di adios a los TN, pon un panel IPS en tu vida (Análisis de IPS226V)

Los que me seguís por Twitter, ya sabréis que la semana pasada adquirí un nuevo monitor, el LG IPS226V-PN, por poco menos de 250€ (gastos de envío incluidos) en Pixmania. A la hora de decidirme, estuve informándome bien en foros especializados. He de reconocer que en temas de monitores soy muy poco ducho, así que descubrir que dentro de los TFT’s hay diferentes tipos de paneles establecidos más allá del fabricante fue todo un descubrimiento para mi.

Os voy a comentar que impresiones me ha dejado el IPS226, además de ofreceros algunas imágenes explicativas, pero como suelo hacer en el blog, voy a daros una explicación clara y sencilla sobre las diferencias entre los paneles IPS y los TN para tener claros los conceptos.

Los paneles TN son los que la mayoría tenéis en casa y que están presentes en miles de oficinas de todo el mundo. Éstos son de bajo coste, su velocidad de refresco es rápida y no tienen efecto ghosting, motivos por los cuales dominan el mercado. Sin embargo, el ángulo de visión es escaso (en cuanto te ladeas se oscurece), y lo más importante, su paleta de colores es pobre, siendo incapaz de mostrar los 16,7 millones de colores actuales.

A la izquierda cuatro ángulos de visión de un panel TN, a la derecha panel IPS

Los paneles IPS fueron desarrollados para compensar la falta de calidad de los paneles TN. La mayoría soporta 8 bits de color reales, es decir, los 16,7 millones de colores de los que hablábamos antes. La mejora es apreciable a simple vista como podéis ver en las imágenes de más arriba, pero no sólo de ángulos va la cosa, sino también en la calidad y en la nitidez del color. En el vídeo de abajo podéis ver lo ya comentado de los ángulos de visión, y también, la mayor calidad de la imagen gracias al contraste adecuado y al color de 8 bits. Por lo general, los paneles IPS presentan una tasa de refresco algo mayor que los TN, pero debido a su tecnología superior, un IPS con 8ms será mejor que un TN a 2ms. Normalmente, estos monitores estaban restringidos a los diseñadores gráficos debido a su elevado coste, no resultando rentables para el público en general, pero ésto ha cambiado en los últimos años.

Por último, en los últimos meses se están imponiendo en el mercado los televisores LED, que se ven notablemente mejor que los LCD’s. En monitores, esto se traduce en que en lugar de tener una barra de luz iluminando la pantalla, se ilumina de forma independiente cada pixel, lo que se traduce en un nivel de brillo mucho más equilibrado y una mejor visualización de la escala de colores. Visto esto, vayamos al monitor que nos concierne, el IPS226V-PN.

Nos encontramos ante el primer monitor con panel IPS LED y que además cuenta con conectividad completa, es decir: VGA, DVI y HDMI. Antes de nada recordaros que las señales HDMI, al ser digitales, no se debilitan ni se deterioran al usar “switches”, por lo que podremos conectar varios dispositivos al conector mediante un switch y seguiremos disfrutando de la mejor calidad de imagen posible, por lo que sólo venga con un conector HDMI no debería ser un problema para nadie. Lo ideal es conectar dispositivos multimedia como videoconsolas al HDMI, el PC mediante DVI y el VGA sólo usarlo si no queda más remedio.

En cuanto al hardware poco puedo comentar, más allá de que parece bastante sólido y robusto, además de que la alimentación no usa el cable tradicional de monitores y fuentes de alimentación, sino que usa un pequeño transformador externo. El control del monitor es totalmente táctil, sin botones. Podremos acceder a configurar el panel a nuestro gusto (colores, brillo, gamma, etcétera) o usar los modos predefinidos de fábrica.

Además del modo “User” que nos ofrecerá lo que nosotros hayamos configurado (si es que lo hemos hecho) en las opciones avanzadas, tendremos movie, text, photo y sRGB. Éste último está pensado para ser usado en condiciones normales de trabajo como monitor, ya que respeta los colores tal y como son y establece un brillo cómodo para la vista. Por el contrario, los modos movie, text, y photo aumentarán el contraste para ver resultados más espectaculares. Con sinceridad, apenas puedo diferenciar nada entre esos tres modos (y para texto me parece demasiado brillante), así que recomiendo el modo sRGB para trabajo normal y el modo Movie para películas, videojuegos, etcétera.

Al activar el modo película, aumenta el brillo y el contraste, dando unos colores mucho más vivos y eliminando cierta capa blanquecina que normalmente tienen todas las imágenes. Si bien es verdad que algunas capas de grises pueden verse debilitadas, es una pérdida mínima en comparación a la nitidez de imagen que ganamos, con unos negros muy negros y unos blancos muy blancos. En la imagen de abajo podéis ver una dramatización de este efecto. A la izquierda y arriba podríamos ver la imagen según sRGB, mientras que a la derecha y abajo la veríamos en el modo película. Repito, es una exageración.

Para que veáis un ejemplo más real (con una cámara de fotos es muy difícil apreciar estas diferencias, ya que la mayoría estaréis usando un panel TN, que es lo normal), usando una imagen he puesto a la derecha el modo sRGB y a la izquierda el modo película. Como podéis ver, se elimina una capa blanquecina-grisácea de encima a cambio de perder algunas escalas, pero se gana en contraste y espectacularidad. En un juego en tiempo real se aprecia mucho más.

Tras unos cuantos días de uso no podría estar más satisfecho de mi adquisición. Por un precio más que bueno (de hecho, hay algunos paneles TN que inexplicablemente valen más) podéis disfrutar de una calidad de imagen muy superior, y sobre todo, los productos multimedia ganarán enormemente en espectacularidad. Por supuesto hay muchos fabricantes como Samsung que hacen un gran trabajo con los paneles TN supliendo sus carencias con tecnologías, pero una vez lo pruebas, donde esté un panel IPS, que se quite todo lo demás. Sin duda, lo recomiendo, y mucho.

¿Los jugadores limitan la creatividad?

Josh Olin, community manager de Treyarch, realizó hace unas semanas unas polémicas declaraciones, donde acusaba a los jugadores de involucionar:

Muchos de los usuarios parecen no saber de qué va esta industria. Estamos en una industria creativa. La forma más creativa que existe. Muchos desarrolladores intentan cosas nuevas y son destrazos por los “gurús” y seguidores de las sagas, algunas veces, simplemente, por el mero hecho de llevar la contraria.

Lo único que esta actitud puede conseguir es acabar con la creatividad y la innovación, algo que ningún jugador con dos dedos de frente, que busque entretenimiento quiere.

Josh Olin, entrevistado para Realidad 2.0 (Isaac Jiménez y un servidor)

Antes de nada, destacar que tiene toda la razón en el fondo de sus palabras, es decir, miles de fans atacan sin cesar en los foros los futuros lanzamientos, sea una saga nueva o un simple cambio, solamente por estética, por cualquier detalle jugable o por mil y una chorradas. Véase, por ejemplo, cuando se anunción The Legend of Zelda: Wind Waker o el reciente anuncio de Devil May Cry 5. En el caso del segundo está por ver, pero en el caso de las aventuras de Link, fue un título posteriormente aplaudido por casi todos los jugadores, reconociendo lo bien que le sentaba el diseño cell shading a la saga.

Ahora bien, que estas declaraciones las haga precisamente alguien que trabaja en Treyarch, es de juzgado de guardia. Estos mismos señores cuya originalidad es nula (no sé si por política propia o por cuestiones de Activision) y que reconocen abiertamente copiar ideas de los otros títulos de la saga Call of Duty, no me parecen los más apropiados para hablar de creatividad. ¿Qué les han podido criticar en un foro antes del lanzamiento si no han introducido casi ningún elemento nuevo?. Yo recuerdo la entrevista que le realizamos en la Gamescom de Alemania, y fue una de las más sosas y aburridas, sin salirse un ápice del guión, así que me parece que la falta de originalidad la tienen ellos, y estas declaraciones no son más que una simple escusa. La misma persona que justificó bugs que afectan directamente a la jugabilidad bajo el argumento de que “ocurren en todos los juegos”, no tiene derecho a quejarse de la comunidad, les debe todo.

Cuando se va a publicar un libro o se va a lanzar una película, más allá de resúmenes introductorios o tráilers, no hay absolutamente nada de información del mismo, por lo que no hay posibilidad de que los consumidores lo critiquen de antemano, pero con los juegos es diferente. Es una industria más joven, más pasional, y las propias compañías nos bombardean meses antes con sus lanzamientos para que vayamos viendo lo grandioso que va a ser y hagamos reservas, hablemos de él a nuestros amigos, se discuta en los foros, etcétera. Realmente, si esto no fuese así, los videojuegos no tendrían ni la mitad de éxito, porque a ver quien se gasta 70€ a ciegas. En cambio, si el producto te gusta, sabes que esos euros van a estar muy bien invertidos.

Creo que en la mano de los desarrolladores está saber hasta que punto se tiene que hacer caso a las opiniones de los jugadores en los foros, porque todo tiene un límite. Si bien es verdad es que es una excelente manera de sondear al público y abre la posibilidad de introducir cambios durante el desarrollo, cuando haces un cambio radical debes olvidarte de las opiniones y simplemente asegurarte de que la fórmula funciona correctamente, como pasó en el mencionado caso de Zelda.

En la reciente gala de Los Goya, Alex de la Iglesia dijo que como cineastas se deben al espectador, así que de la misma forma creo que los desarrolladores se deben a los jugadores, y críticas abiertas como ésta a todos tus compradores quedan fuera de lugar. Céntrate en realizar un buen producto y no pongas escusas tan absurdas a tu falta de originalidad, que quien quiere usarla, lo hace  y triunfa. Y ejemplos, hay a montones.