martes, 12 de julio de 2016

HIstoria de Facebook

Facebook se creó como una versión on-line de los "facebooks" de las universidades americanas. Los "facebooks" son publicaciones que hacen las universidades al principio del año académico, que poseen las fotografías y nombres de todos y cada uno de los estudiantes y que tienen como objetivo asistir a los estudiantes a conocerse mutuamente. facebook llevó esta idea a Internet, primero para los estudiantes americanos y abrió sus puertas a cualquiera que cuente con una cuenta de mail.

Facebook nació en 2004 como un hobby de Mark Zuckerberg, en aquel instante estudiante de Harvard, y como un servicio para los estudiantes de su universidad.



En su primer mes de funcionamiento facebook contaba con la suscripción de más de la mitad de los estudiantes de Harvard, y se extendió entonces a las universidades MIT, Boston University y Boston College y las más prestigiosas instituciones de U.S.A.

Un año después, facebook tenía más de un millón de usuarios, una oficina en Palo Alto, California y había recibido el apoyo financiero de Peter Thiel primero (co-creador de Pay-Pal y también inversor ángel) (quinientos mil O bien dólares americanos D) y el Accel Partners después ( dólares americanos 12.7 millones). Ese año incorporó, a los pupilos de más de veinticinco mil escuelas secundarias y 2 mil universidades de estados unidos y el extranjero, consiguiendo un total de once millones de usuarios.

En 2006, facebook introdujo más universidades extranjeras y desarrollo nuevos servicios en su plataforma, como facebook Aprecies (una herramienta de blog con tags, imágenes y otras utilidades) o bien la importación de weblogs de servicios como Xanga, LiveJournal o bien Blogger, y ya en dos mil siete facebook Marketplace, que compite con Craigslist. Asimismo incorporó pactos comerciales con iTunes y recibió una inversión de capital auxiliar de veinticinco millones de dólares americanos por la parte de Peter Thiel, Greylock Partners y Meritech Capital Partners.

En marzo de 2006, BusinessWeek difundió que una adquisición potencial del lugar estaba bajo negociación. facebook rechazó una oferta de 750 millones de dólares.

En 2006 facebook se "hizo público" dejando que no solo los estudiantes de ciertas universidades o escuelas americanas participaran en él, sino todas y cada una de las personas que tengan correo electrónico puedan ser parte de su comunidad. facebook se transformó entonces en una Comunidad de comunidades, en él se conectan estudiantes, empresas y gente que puede seleccionar participar en una o bien más redes. Es una comunidad creada por y en función de sus miembros.

En el mes de febrero de 2007 llegó a tener la mayor cantidad de usuarios registrados en comparación con otros sitios orientados a estudiantes de nivel superior, teniendo más de 19 millones de miembros en el mundo entero, debido a que originalmente solo fue publicado en inglés.

En el mes de julio de 2007, facebook anunció su primera adquisición, Parekey, Inc. De Blake Ross y Joe Hewitt. En el mes de agosto del mismo año, se le dedicó la portada de la reputada gaceta Newsweek; aparte de una integración con YouTube.

A fines de octubre de 2007 la red de redes vendió 16% a Microsoft a cambio de 240 millones de dólares estadounidenses, a cambio que facebook se transformará en un modelo de negocio para marcas donde ofrezcan sus productos y servicios.

La más reciente inyección de capital a facebook 27,5 millones de dólares americanos fue realizada por Greylock Venture Capital (fondo de inversión con fuerte vínculo con la CIA). Uno de los asociados de Greylock es Howard Cox, -conforme el diario The Guardian-, pertenece en el fondo de inversión en capital de peligro de la CIA.

En 2008 lanzó su versión en francés, alemán y de España para impulsar su expansión fuera de U.S.A., puesto que sus usuarios se concentran en E.U, Canadá y G. Bretaña. La mayor cantidad de usuarios de Iberoamérica, procede de Colombia, superando a países con mayor población como México, Brasil y Argentina.

Facebook compite por abrirse espacio entre empresas de éxito como Google y MySpace, con lo que se encara a grandes retos para conseguir medrar y desarrollarse. Una de las estrategias de Zuckerberg ha sido abrir la plataforma facebook a otros desarrolladores.

La propuesta económica es quienes edifica algo sobre facebook se van a quedar con el dinero generado por la publicidad o bien por las transacciones. Lo más esencial, es la dimensión virtual del sistema: "en el momento en que un amigo añade una aplicación aparece en su página y en su perfil. Cliquear lleva a la aplicación y deja interaccionar de manera directa con ella". Todos y cada uno de los amigos ven la elección y la consideran como un voto a favor lo que los incita a probarla asimismo. De este modo lo prueban, además de esto, los hechos. A los diez días de lanzamiento, el número de aplicaciones libres habían pasado de 85 a más de 300. Ilike, la más popular, empezó con 1000 abonados por la mañana siguiente del lanzamiento. A los un par de días eran 300,000. Gana ahora 200.000 abonados al día y su presencia en facebook superó al lugar original.

Facebook pretende volverse algo como un sistema operativo. El "sistema operativo social de la Web", conforme llegó a declarar Mark Zuckerberg el creador del lugar.

Haidi Partovi, presidente de iLike (lugar de intercambio de música) asevera que "en la historia de la computación, se creó la computadora personal, entonces Windows, entonces la Web y ahora la plataforma facebook".

En facebook la información es filtrada por los amigos y las redes. El modelo no descansa sobre un motor de busca, sino más bien sobre las redes sociales.

Prácticamente cualquier persona con conocimientos informáticos básicos puede tener acceso a todo este planeta de comunidades virtuales.

Facebook está prohibido en varios países .

En el mes de julio del 2009 Mark Zuckerberg, creador de la compañía hizo público que había alcanzado los doscientos cincuenta millones de usuarios.

Conforme la revista Forbes, Mark Zuckerberg de 25 años, está en el 2ª posición de los jóvenes más ricos del planeta, con una fortuna estimada en 1,9 millones.

martes, 17 de mayo de 2016

La historia de Windows

Cuando aún era estudiante conoció a Paul Allen y años después en mil novecientos setenta y cinco decidieron montar su empresa, es donde empezó el tsunami de estos chavales con ideas muy innovadoras. El primer objetivo fue desarrollar las versiones del lenguaje de programación BASIC para el equipo Altair. La compañía se llamaría Microsoft.

Para comprender el producto es bueno conocer primero a sus autores. Si bien ahora es sorprendente encontrar con alguien que no conozca a Bill Gates, hubo un tiempo en el que el planeta era diferente.

El primer logro de Microsoft fue el MS-DOS. En mil novecientos ochenta IBM trabaja en el que sería su enorme éxito, la IBM computador. Precisa un software para su proyecto y se lo encarga a Microsoft. Gates tiene poco tiempo con lo que adquiere el software a otra empresa, lo rebautiza con el nombre de MS-DOS y le vende la licencia de empleo a IBM.

Entre los primordiales inconvenientes que tuvo fue Apple, que para resguardar su sistema operativo impedía que Microsoft plagiara su producto. Con que Microsoft no podía incluir en Windows cosas como la papelera de reciclaje o bien la superposición de las ventanas.

Por suerte para Microsoft el nuevo computador es un éxito, el resto de fabricantes lo imitan y solicitan la licencia de empleo del MS-DOS. En escaso tiempo el IBM computador se ha transformado en un estándar y Bill Gates en millonario. Las relaciones con IBM en el desarrollo del software siguen mas Windows pondría piedras en el camino.

Su nombre es Microsoft Windows. Nació en mil novecientos ochenta y cinco para ser un complemento del MS-DOS. La novedad del instante era su Interfaz Gráfica de Usuario (GUI) mas pese a ello el sistema tenía ciertas restricciones y no se implantó con la solidez que sus autores hubiesen querido.
windows


La evolución y las mejoras

OS/2 tenía una ventaja esencial sobre Windows y es que aprovechaba mucho mejor la capacidad del procesador del instante, Intel ochenta doscientos ochenta y seis. Además de esto asimismo aguantaba memoria virtual y multitarea.

Windows dos.0. Un par de años después llegó Microsoft Windows 2.0 y se haría un tanto más popular que su predececesor. En paralelo, Microsoft y también IBM trabajaban de forma conjunta en el desarrollo de otro sistema operativo el OS/2. Ciertos afirman que esto era una estrategia de Gates para asegurarse su cuota de mercado.

Como los dos equipos colaboraban entre sí en el desarrollo de sus sistemas operativos para computador, cada uno de ellos tenía acceso al código del otro. Mas la versión más competitiva fue Windows treinta transformándose en mil novecientos noventa en un duro contrincante para el Macintosh de Apple.

Debido a los pactos entre las 2 empresas los productos eran muy similares mas Microsoft pisó fuerte con la promoción de Windows NT y el público apenas lo apreció. Windows se iba asentando en el mercado hasta el momento en que con el Windows noventa y cinco lograba mayores cuotas que el OS/2.

En esta temporada empeoraba el comprensión entre IBM y Microsoft, divergían en como enfocar el futuro de las investigaciones. Al tiempo que IBM se decantaba por el OS/2, Microsoft insistía en desarrollar aún más Windows. La solución fue que IBM desarrollaría el OS/2 dos.0 y Microsoft OS/2 treinta, superando de esta forma al OS/2 trece y Windows treinta.

Mas las diferencias entre los 2 gigantes eran demasiado grandes y concluyeron sus pactos. IBM sacó al mercado el OS/2 dos.0 al paso que Microsoft rebautizaba su proyecto con el nombre de Windows NT.


Segunda etapa: el mercado es de Windows

Windows 95Windows noventa y cinco era realmente un sistema operativo muy, muy diferente al Windows NT mas Microsoft trabajó para hacerlos lo más compatibles posible.

Entre las mayores ventajas del nuevo Windows era que si bien precisaba el MS-DOS como base tenía una instalación integrada. De esta forma el usuario solo debía instalar el Windows noventa y cinco al paso que con las versiones precedentes había que adquirir los 2 sistemas separadamente y también instalar Windows sobre el MS-DOS.

Con esta versión, o bien mejor dicho nuevo sistema, Microsoft se ganaba la confianza del público. La enorme evolución de Internet y la potencia que se lograba en los equipos facilitaba la expansión de Intel y Microsoft. La influencia fue tal que los fabricantes de controladores de dispositivos centraban sus productos en las 2 marcas líderes. El mercado era de Microsoft. Tenían que hacerlo de tal forma para que los ordenadores de la época (sin aire acondicionado) no se quedaran bloqueados por exceso de calor al procesar, por lo que lo hicieron poco pesado.

La otra gran ventaja era que incorporaba un subsistema en modo protegido que estaba singularmente escrito a procesadores ochenta trescientos ochenta y seis o bien superiores. Con este subsistema Microsoft se aseguraba las compatibilidades y evitaba que las nuevas aplicaciones dañaran a las otras.


El declive: Windows noventa y ocho y Millenium

Windows 98. En junio de mil novecientos noventa y ocho salía al mercado Windows noventa y ocho. Un sistema del que hicieron una segunda versión en 1999: Windows noventa y ocho Second Edition. Este suprimía muchos de los fallos que causaba IE y además de esto dejaba a múltiples ordenadores conectarse al unísono a una misma conexión de Internet.

Solo funcionaba bien cuando el sistema venía incorporado de factoría, en la mayor parte de los casos en que se instalaba como actualización de software era bien difícil de configurar o bien aun imposible. Este ha sido el producto más criticado de Microsoft hasta la data.

La nueva baza de Microsoft debía ser un complejo Windows dos mil mas el proyecto se retrasaba y para disimular el retraso sacaron con prisas una versión inconclusa del mismo: Windows Millenium.


El último de la familia Windows

Windows xpA partir de entonces la historia es ya más simple de rememorar para todos: vinieron Windows dos mil, Windows XP, Windows Server dos mil tres, Windows Vista y al fin Windows Server dos mil ocho. Cada nueva versión con mejoras en el diseño, la estabilidad, más dispositivos de red, nuevos servicios, más capacidades multimedia, etc… Aquí ya, con el progreso de los ordenadores, (sin aire acondicionado jeje) no se bloquean tan fácilmente.

En lugar de precipitarse nuevamente con un “avance”, Microsoft se aguardó hasta el treinta de enero de dos mil siete para sacar su más reciente versión al mercado (en aquel momento: Vista). En ciertos casos cuando el usuario adquiría su computador se llevaba consigo un tique que podría intercambiar en su instante por el Windows Vista y de esta forma actualizar su sistema operativo.


De Windows Vista hubo múltiples versiones:

Para el usuario doméstico: Vista Home Basic, Vista Home Premium, Ultimate Edition.
Para las empresas: Vista Business, Vista Enterprise.
Para los mercados emergentes: Vista Starter
Desgraciadamente, la recepción del público fue negativo debido a sus fallas y poca eficacia, sobre todo en materia de seguridad y requerimientos del sistema. Fue eso lo que motivó que la próxima versión del sistema operativo, Windows siete, saliese con más anticipación de la que se había previsto. Windows siete fue lanzado en público el veintidos de octubre de dos mil nueve y afirma ser más eficaz y veloz que su predececesor, aparte de ciertos cambios en la interfaz y es más acomodable a su empleo en sistemas de pantalla táctil.

Finalmente, Windows Server dos mil ocho. Es una evolución del Windows Server dos mil tres basada en la interfaz de Windows Vista mas más fácil. Fue presentado en público el veintisiete de febrero de dos mil ocho.


Los aledaños de Windows

Microsoft ha sido acusado y criticado por fomentar el monopolio más de una vez. Asimismo se ha visto envuelto en polémica por competencia infiel y, conforme ciertos, copió el sistema operativo de Apple.

Se le critica por poner un ejemplo, que el fabricante esté obligado a incluir su Windows en la máquina que genera. Son cada vez más los que demandan Linux, tanto es conque Dell ha comenzado a sacar nuevos modelos, pocos eso sí, con el sistema operativo alternativo.

Por norma general se acostumbra a decir que el de Apple y Linux son más estables y seguros y de Windows que es más fácil de emplear. Está claro, y excusen el escepticismo, que no se llegará a una conclusión terminante, lo esencial va a ser entonces conocer un tanto de cada uno de ellos a fin de que el usuario elija aquel con el que se sienta más cómodo.

Además de esto, ahora que el software libre está medrando y haciéndose cada días un poco más popular se le reprocha a Microsoft que su código sea cerrado. Quizá entre los pocos aspectos en los que el dueño de Microsoft coincide con la crítica es la carencia de seguridad, el propio Bill Gates ha reconocido en alguna ocasión que es entre las prioridades de su empresa, el handicap que deben superar. Es asimismo, en parte, el costo que debe abonar por ser El estándar. Su situación atrae a los fabricantes y compradores mas asimismo a los piratas informáticos.

La discusión y la polémica rodea a Windows y a Microsoft, Internet está repleto de foros de discusión con fervientes atacantes y defensores de la compañía y su sistema operativo. Decidir que sistema es el mejor es bien difícil, ciertos se decantan por Apple, otros por Linux y otros por Windows.

martes, 10 de mayo de 2016

¿Quien ha inventado internet?

Múltiples personas participaron en la invención y que este no es un invento de una sola persona, no obstante, hay ciertos nombres que son más esenciales que otros. Veamos ciertos de ellos... Aunque podríamos remontarnos a la década del treinta, cuando el informático belga Paul Otlet imaginó y escribió sobre una librería radial que podría conectar a televidentes de todas y cada una unas partes del planeta a través de ondas de radio y señales telefónicas, tal como mensajes de toda clase que podrían comunicar a las personas, compartir información y demás, a grandes distancias, no acostumbra a mentarse más que como un soñador que lo imaginó, mas no efectuó un aporte tangible en sí.
reparacion

De entrada, internet que conocemos el día de hoy fue una idea en general acreditada al de Norteamérica Leonard Kleinrock, ingeniero, científico en computación y maestro de Ciencias de la computación en la UCLA, quien la mienta en su publicación Flujo de información en grandes redes de comunicación, en mayo de mil novecientos sesenta y uno. Un año después, en mil novecientos sesenta y dos, J.C.R. Licklider, informático estadounidense, dio su visión sobre una posible red galáctica y así como los aportes de otro informático compatriota llamado Robert W. Taylor, estos tres nombres consiguieron elaborar una primera idea de lo que sería la red, que después se transformó en ARPANET.

Con el trabajo y reparaciones de abundantes estudiosos del Departamento de Defensa de E.U. desarrollando la ARPANET (Advanced Research Projects Agency Network), la base de lo que fue internet hasta mil novecientos noventa, la red se fue desarrollando y mejorando en forma incesante a lo largo de décadas. Los nombres más esenciales en estos términos son los de Leonard Kleinrock, que ideó la conmutación de bultos (tecnología básica de Internet), Robert Kahn y Vinton Cerf, que idearon el protocolo TCP / IP en la década de mil novecientos setenta, Lawrence G. Roberts por su desarrollo, Ray Tomlinson, que introdujo la correo electrónica por red, y Tim Berners-Lee, que en mil novecientos noventa desarrolló el lenguaje HTML y el sistema WWW.

Internet que conocemos el día de hoy empezó a desarrollarse de esta manera en la década de los sesenta y el verano de mil novecientos sesenta y ocho, el llamado Conjunto de Trabajo de la Red (Network Working Group) se reunió por vez primera. Con esta asamblea, encabezada por Elmer Shapiro con miembros del SRI (Stanford Research Institute), entre los que es esencial resaltar nombres como los de Steve Carr, Steve Crocker, Jeff Rulifson y Ron Stoughton, se procuró solventar los inconvenientes relacionados con la obtención de hosts que se comunicasen entre sí.

Así, en mil novecientos sesenta y ocho se publica el Estudio de los factores de diseño de la red de ordenadores y con estos trabajos, tal como los aportes de Paul Baran, Thomas Marill y sus colegas; Lawrence Roberts y Barry Wessler consiguieron crear la versión final de la Interfaz de Procesador de Mensajes (IMP), que inmediatamente fue desarrollada y construída por BBN Technologies. Con las herramientas precisas, las ideas de Kleinrock, Licklider, Robert W. Taylor y sus colegas se fueron materializando de manera rápida.


La invención de internet

Internet no fue un invento de una sola persona o bien cuando menos no internet que conocemos y empleamos hoy día. Diferentes personalidades han trabajado en la idea, el desarrollo y las mejores de este complejo sistema global. Empecemos por describir escuetamente qué es internet en términos realmente simples y después conozcamos ciertas de esas personalidades.

Todo esto marcha de forma tal que forma un enorme sistema conjunto y descentralizado de redes de comunicación interconectadas que, a través de protocolos TCP/IP, permite su funcionamiento como una red lógica que engloba todo el planeta, conectando miles y miles de millones de computadoras a nivel global. A todo esto llamamos internet.

En este preciso instante, un sinnúmero de información es desplegada y transportada cara tu computadora mediante internet. Se compone de 2 partes esenciales: un software y un hardware. Uno deja las conexiones físicas que facilitan el contacto (hardware), como cables, servidores y más, y el otro deja la codificación y descodificación de la información (software), como programas, navegadores y demás.

¿Imaginas tu vida el día de hoy sin internet? Amamos internet, la precisamos y la vivimos cada día. Esta gran invención supo colarse en nuestra cotidianeidad y transformarse en una enorme herramienta para cualquiera de nosotros, así sea para trabajar, estudiar, investigar, aprender, interaccionar con otras personas o bien sencillamente entretenernos. Por estas razones, el interrogante sobre quién ideó internet es de lo más frecuente y recurrente. ¿Sabes quién fue? Puesto que acompáñame para descubrirlo.

lunes, 25 de abril de 2016

¿Que es el cifrado de Whatsapp?

WhatsApp, con más de mil millones de usuarios activos todos y cada uno de los meses, termina de activar cifrado de punto a punto para todas y cada una de las conversaciones con independencia de que móvil estés utilizando. Al fin podemos charlar de comunicaciones seguras utilizando esta aplicación de chat.

Ha sido un trabajo que ha llevado años, desde el momento en que en 2015 WhatsApp se asoció con Open Whisper Systems (autores de Signal) para llevar el cifrado a millones de conversaciones de una manera segura, conforme comentan los autores en una entrevista publicada en Wired. De forma silenciosa, el cifrado de punto a punto ya está activo para todo el planeta.




Hasta el momento Facebook cifraba las conversaciones de WhatsApp en tránsito, o sea, desde el momento en que el mensaje llega a sus servidores y hasta el momento en que se entrega a la persona con quien sostienes una charla. Este formato de cifrado no es perfecto, por el hecho de que deja (por servirnos de un ejemplo) a un gobierno intervenir una charla si tiene acceso al equipo.

Con el cifrado de punto a punto el mensaje, audio, fotografía, vídeo, llamada o bien cualquier dato transferido con WhatsApp, se cifra de manera directa en tu teléfono o cualquier otro electrodoméstico compatible y se transmite a la otra persona de este modo, haciendo considerablemente más bien difícil acceder al contenido de una charla.

Ni tan siquiera los empleados de WhatsApp pueden acceder a la charla, ya se mande desde un iPhone, Android, Windows Phone o bien desde un Nokia básico siempre y cuando utilicen la última versión libre.

¿Por qué razón es esencial el cifrado de punto a punto?

Se lleva hablando a lo largo de semanas de qué forma el FBI ha pedido a Apple que le den acceso a un iPhone que un terrorista empleó en un ataque en California. El fabricante del iPhone se negó frente a la imposibilidad de la petición: desde iOS nueve todos y cada uno de los equipos actualizados están cifrados y no se puede acceder a su contenido sin su clave de acceso. Y si está activa la protección de reiteraciones, al décimo intento de clave de acceso incorrecta el contenido se borra.

En la mitad de esta tormenta entre el derecho a la privacidad y las investigaciones policiales, entre las conversaciones se centraba en de qué forma muchas empresas de tecnología que administran nuestras comunicaciones deben entregar datos ante determinadas solicitudes. Es más, Apple cedió datos alojados en iCloud del terrorista menos de mensajes utilizando iMessage, en tanto que es una plataforma cifrada de punto a punto; mas no datos del propio teléfono.

Merced al cifrado de punto a punto ya activo en WhatsApp, Fb no puede entregar ningún dato a cuerpos de seguridad pues sin la clave de acceso del usuario, este mensaje es mucho más difícil de descifrar. Con este acción, Fb se ha transformado en una de las compañías con mayor número de personas utilizando una plataforma segura.

lunes, 18 de abril de 2016

Benchmark a 2K MSI Titan

Puede parecer un desperdicio tener tanta potencia en la GPU para una pantalla 1080p, mas las posibilidades son apasionantes de todas y cada una maneras. Para comenzar, nada evita que conectes el GT80 Titan a un monitor externo capaz de lograr una resolución más alta. Seguidamente, Nvidia tiene su solución de escalado, DSR. Con ella, el driver te deja elegir resoluciones considerablemente más altas en el juego para entonces escalarlas dinámicamente a la pantalla 1080p. Este proceso se conoce como super-sampling, y es de lejos el procedimiento más efectivo de anti-aliasing que puedes utilizar. Es pura fuerza bárbara, mas las 2 GTX 980M tienen potencia de sobras para ofrecer resultados sólidos. El único inconveniente acá es que los drivers para portátil de Nvidia aún no tienen compatibilidad con DSR, algo extrañísimo si tienes presente que el chip es idéntico a su equivalente de escritorio.
No obstante, lo limitado de la ganancia con Crysis tres y los inconvenientes con Call of Duty: Advanced Warfare nos recuerdan que la potencia bárbara de esta máquina depende en buena medida de la calidad de la implementación del modo SLI en todos y cada juego, lo que meridianamente cambia de un caso a otro. No olvidemos que Titanfall, por poner un ejemplo, tardó meses en ser compatible con SLI, y mientras que los jugadores con 2 o bien más tarjetas de Nvidia debían emplear solo una o bien usar hacks inestables creados por usuarios de la comunidad.

Resolucion (1440p)
 2560x1440
GTX 970
GTX 980
GTX 980M
980M SLI
Titan X
Battlefield 4, Ultra, 4x MSAA
48.9
57.0
40.8
77.2
75.1
Crysis 3, Very High, SMAA
43.0
50.0
35.3
55.6
67.0
Assassin's Creed Unity, Ultra High, FXAA
32.8
39.4
26.8
53.6
51.6
Far Cry 4, Ultra, SMAA
53.9
61.3
42.7
93.5
78.6
COD Advanced Warfare, Extra, FSMAA
87.0
98.2
75.7
91.3
114.6
Ryse: Son of Rome, High, SMAA
46.3
54.1
37.7
72.7
71.4
Shadow of Mordor, Ultra, High Textures, FXAA
57.0
66.0
47.1
82.0
85.3
Tomb Raider, Ultimate, FXAA
65.5
76.7
54.8
103.9
101.7
Metro Last Light Redux, Max, Post-AA
48.9
58.3
40.8
68.0
74.5

En resumen, el MSI GT80 Titan SLI es una bestia a nivel de desempeño, la que ofrece unos resultados pasmantes. Siempre que el SLI funcione bien con el juego, estás frente a una máquina que supera las posibilidades de un equipo de escritorio con una GTX novecientos ochenta, o bien aun la Titan X en dependencia del título. Lo que asimismo es pasmante es su consumo energético. El PC viene con una enorme fuente de nutrición de 350W, y conforme nuestras mediciones el consumo llega a lograr los 310W. Teniendo presente que nuestro equipo con una Titan X (utilizando una CPU 4790K overclockeada) consume hasta 346W en esas pruebas, el hecho de que el portátil consiga resultados afines consumiendo menos es un logro notable. Mas 310W es una cantidad de energía notable para cualquier equipo móvil, conque a toda potencia los ventiladores son ruidosísimos - 60dB en el teclado. Además de esto, resulta conveniente tomar en consideración que al utilizarse con la batería, sin estar conectado a la corriente, los frames-rates caen en picado, en tanto que la batería de 8 celdas sencillamente no es capaz de dar tanta energía. Los frame-times asimismo se ven perjudicados, y la tecnología de Nvidia para aumentar al máximo la batería hace poco para prosperar la experiencia.
El tema de la batería nos lleva a otra protesta que tenemos del Titan GT80 SLI: la autonomía es bastante pobre. Aun con labores básicas la batería acostumbra a perdurar unas 2 horas con la tarjeta gráfica dedicada, al tiempo que con la integrada llega aproximadamente al doble. Mas 4 horas con labores muy básicas no es buen resultado. Obviamente un equipo como este, destinado a reemplazar el de sobremesa, va a estar prácticamente siempre y en todo momento conectado a la corriente, y siendo un portátil de 4 kilogramos y medio pocas veces lo utilizarás por ahí. Todavía de este modo, queda la sensación de que los chips de 4 núcleos de Intel no son para nada tan eficaces como los de 2. Tener mayor autonomía estaría bien, mas imaginamos que habría añadido todavía más peso.
Un detalle que nos ha desilusionado un tanto es la pantalla. Si bien su calidad es estupenda, al emplear la tecnología PLS de Samsung y tener mucho brillo, semeja extraño que MSI se limite a montar un panel de resolución 1080p. Teniendo presente el costo del equipo y, sobre todo, que su hardware es capaz de ofrecer frame-rates muy altos a resoluciones superiores, se hace extraño que el GT80 SLI no venga de serie con una pantalla 3K o bien 4K. Siempre y en todo momento puedes conectarlo a un monitor externo (3, en verdad), claro, mas no es exactamente lo mismo.
No obstante, lo limitado de la ganancia con Crysis tres y los inconvenientes con Call of Duty: Advanced Warfare nos recuerdan que la potencia bárbara de esta máquina depende en buena medida de la calidad de la implementación del modo SLI en todos y cada juego, lo que meridianamente cambia de un caso a otro. No olvidemos que Titanfall, por servirnos de un ejemplo, tardó meses en ser compatible con SLI, y mientras que los jugadores con 2 o bien más tarjetas de Nvidia debían emplear solo una o bien usar hacks inestables creados por usuarios de la comunidad.

miércoles, 13 de abril de 2016

BenchMarck a FullHd Msi Titan

En suma, el GT80 Titan SLI es un sistema con franqueza resaltable, como cabía aguardar dado su estratosférico coste (+3000€), mas eso no serviría si no diera un desempeño increíble con juegos. Y eso es precisamente lo que ofrece. Recientemente nos ha preocupado la reducción en la relación calidad precio de la gama más alta de GPUs, así sean las GTX novecientos ochenta de escritorio en SLI o bien la increíble Titan X. La GTX 980M, no obstante, es más modesta que su opción alternativa de escritorio. Está aproximadamente al nivel de la vieja GTX setecientos ochenta, mas no llega a tener la potencia de una GTX 970. Mas si montas 2 en SLI la situación cambia radicalmente y se vuelve considerablemente más interesante, como podéis ver en los próximos benchmarks a 1080p:

Resolución (1080p) 1920x1080
GTX
970
GTX
980
Gtx
980M
980
SLI
Titan X
Battlefield 4, ultra, 4x MSAA
74.6
86.5
61.5
113.5
111.2
Crysis 3, Very High, SMAA
71.4
81.5
57.2
88.7
105.0
Assassin's Creed Unity, Ultra High, FXAA
51.7
62.4
42.0
82.6
77.6
Far Cry 4, Ultra, SMAA
77.4
87.4
61.6
115.5
101.5
COD Advanced Warfare, Extra, FSMAA
117.8
128.0
103.4
117.8
149.9
Ryse: Son of Rome, High, SMAA
65.1
75.8
53.1
101.9
99.2
Shadow of Mordor, Ultra, High Textures, FXAA
80.8
91.7
65.8
115.5
118.9

Full HD es una resolución esencial para el GT80 Titan SLI, puesto que es la resolución de la pantalla que monta el portátil. Como podéis ver en los benchmarks, una sola GTX 980M tiene suficiente potencia para ofrecer una experiencia genial. Con 2 en SLI tienes gameplay a la resolución y refresco nativo de la pantalla con todos y cada uno de los juegos y el detalle al límite, siempre que se use anti-aliasing por blog post-proceso. Lo que no se ve en los benchmarks es el frame-rate mínimo - todos y cada uno de los juegos acá probados sobrepasaban los 60FPS, salvo uno, Crysis 3, que todavía de esta forma tenía unos más que respetables 54FPS.

La escalabilidad que ofrece el SLI es increíble. Cuando empleas 2 GTX 980 de escritorio las ventajas no son tan obvios, hasta el punto que una Titan X overclockeada ofrece prácticamente ese desempeño bárbaro en muchos juegos a costa de calor que debe evacuar con su ventilador. No obstante, el factor de multiplicación al utilizar 2 GTX 980M es increíble: Assassin's Creed Unity, Far Cry cuatro, Tomb Raider y Rise ofrecen mejoras del 90% en el desempeño. El que menos es Crysis 3, ofertando 'solo' un 55% de mejora. Acá excluimos a Call of Duty: Advanced Warfare y su mejora del 14%: la compatibilidad SLI en este juego está plenamente rota, y se agregan unos tirones que nos hacen aconsejar desactivar el SLI para jugar con él. Si tomamos los 8 juegos en los que el SLI está bien incorporado, la mejora en los frame-rates tiene una media del 83% .
Asimismo merece la pena mentar la consistencia del desempeño, señalada en las métricas de frame-rate de nuestros vídeos. En la mayor parte de caso - salvo Call of Duty - la entrega de los nuevos frames es tan fluida en esta configuración SLI como en la Titan X. Esto nos hace llegar a una conclusión: este portátil para gaming supera (si bien por poco) a un ordenador de escritorio con la GPU de un solo chip más veloz del mercado montada al lado de un i7 overclockeado en 5 títulos: Battlefield cuatro, Assassin's Creed Unity, Far Cry cuatro, Ryse y Tomb Raider. En Shadow of Mordor y Metro Last Light Redux se comportan prácticamente igual. De nuevo, sin tener en consideración CoD, la configuración portátil en SLI supera de forma fácil a la GTX 980 de escritorio, si bien por un margen pequeñísimo en Crysis tres. Hacer una prueba de gameplay con Crysis tres a 1440p ilustra esto muy bien: la Titan X se queda muy cerca de los 60FPS estables, mas la GTX novecientos ochenta SLI ofrece una mejora modesta con respecto a la GTX novecientos ochenta de escritorio. Puede que la CPU más limitada del GT80 Titan tenga una parte de la culpa, mas lo cerca que están la GTX980 y el GT80 SLI sugiere que la causa es más bien de la GPU.

Crysis 3 1440p60/V-Sync Gameplay
Titan X
GTX
980
980
SLI
Frame-Rate más bajo
44.0fps
31.0fps
35.0fps
Caídas de frames (de un total de 18650)
477 (2.56%)
3852 (20.66%)
2841 (15.23%)

De forma afín a 1080p, Crysis 3 a 1440p es de los títulos que menos se favorece de la escalabilidad del SLI, mas en términos generales el Titan GT80 SLI prosigue rindiendo de forma increíble a 2560x1440. Hay resultados sensacionales, como los logrados con Assassin's Creed Unity, Battlefield cuatro, Ryse y Tomb Raider, todos prácticamente doblando el desempeño de una sola 980M. En Far Cry cuatro el desempeño es más del doble, algo que parecía imposible mas que hemos comprobado efectuando múltiples pruebas. Es esencial rememorar que, alén del anti-aliasing, hacemos las pruebas con todo el detalle al límite, conque hay posibilidad de mudar alguna opción si fuera preciso, con un impacto mínimo en la calidad de imagen.

Imagen Crysis 3 a 1440p