31 de agosto de 2007

Truco para acelerar Gnome

Al parecer, un ~/.thumbnails con demasiada información -parece que aun no hay mecanismos para limitar o limpiar ese directorio-, como por ejemplo 430 MB, puede causar un retardo de cinco segundos en el arranque.

Solución: rm -r ~/.thumbnails

Invalidan en Suecia uno de los votos a favor de OOXML

Recientemente hubo en Suecia una controvertida votación sobre hacer el OOXML de Microsoft estándar ISO, porque 23 empresas socias de Microsoft se unieron de repente al comité para votar a favor de Microsoft. En otras palabras, que Microsoft había jugado sus cartas para imponer sus designios a todo cristo por encima de cuerpos de estándares y demás.

Pues bien, el Instituto de Estándares Sueco ha anulado su propio voto porque al parecer se habrían detectado compensaciones económicas para que se votara a la opción de Microsoft, y pasa a abstenerse. Los restantes votos permanecen igual, pero esto pondrá más luz sobre la reciente controversia. El escándalo está servido

30 de agosto de 2007

El SSE 5 de AMD

En la "revista de prensa que puse hoy incluía el anuncio de AMD de las extensiones SSE5. Pues bien, Jon Stokes, el experto en microprocesadores de Ars Technica, ha escrito sobre este asunto.

Su conclusión es que no estamos ante unas simples extensiones multimedia más, sino que estas extensiones tienen toda la pinta de formar la base de la anunciada integración física de la GPU en el microprocesador: Unas extensiones que, de nuevo siguiendo la teoría de Stokes, tienen la intención de revolucionar el mercado tal como lo hizo x86-64, obligando de ese modo a Intel a "seguirles" de nuevo. Una teoría que tiene muchas probabilidades de ser cierta, al juzgar por el nuevo formato de instrucciones que Stokes detalla y que parece implementar unas "verdaderas" instrucciones SIMD, puesto que las anteriores extensiones multimedia estaban limitadas por la manera en la que se integraban en el conjunto de instrucciones clásico de x86.

La diferencia de todo esto con el caso de x86-64 es que Intel ya está preparando su propia integración de la GPU. Stokes dice, aunque no da detalles, que Intel va a implementar su integración de GPU de una manera distinta a la de AMD. La única esperanza de AMD frente a una batalla de formatos de instrucciones sería la de publicar las extensiones lo más rápido posible, como podría estar haciendo con este anuncio, porque en caso de presentarse ambos teóricos formatos simultaneamente, Intel ganaría debido a su cuota de mercado y el poder comercial que ello implica. En cualquier caso, los primeros procesadores en implementar SSE5 no saldrán hasta el 2009, con lo cual falta mucho tiempo para que se conozcan los verdaderos detalles de las integraciones de la GPU de ambas compañías; esto no son más que especulaciones sobre lo que finalmente saldrá al mercado.

Revista de prensa

  • Creative anuncia un reproductor compatible con el formato AAC de iTunes, gracias la decisión de Apple de vender música sin DRM. Por cierto, como dice el artículo, este nuevo reproductor si que parece un rival competitivo del iPod nano; además se ha adelantado a los rumores de actualización de la linea iPod.

  • Nokia anuncia un clon del iPhone. Los representantes de Nokia han dicho en concreto que "si hay algo bueno en el mundo, lo copiamos con orgullo", pero lo que quiere decir realmente es "si hay algo bueno en el mundo, lo copiamos", lo de "con orgullo" es un claro intento de asociar a este producto un aire positivo y optimista que no tiene (tan solo están logrando ponerse al nivel del competidor y subyugándose a lo que el competidor pueda sacar mientras ellos están ocupados en copiar).

  • Los ingresos trimestrales de la división Linux de Novell crecen un 77% respecto al año pasado. Son grandes noticias para Novell, pero siguen perdiendo dinero: La división de Linux le ha proporcionado 22$ millones, pero el total de la empresa genera más de 10 veces más. Novell es una empresa muy grande, y aun no está claro si Linux crecerá lo suficientemente bien como para poder salvarla, pues la mayoría de los beneficios de Novell parecen venir de productos "antiguos" que se supone que deberían ser reemplazados con Linux con el tiempo.

  • AMD anuncia las extensiones SSE5; parece que mejoraran ampliamente el rendimiento de ciertos tipos de software, en especial parece interesante que esten añadiendo instrucciones que aprovechan especificamente (o eso parece) la "fusión de ops" que Barcelona traera consigo.

  • Microsoft anuncia el SP1 de Vista para principios del año que viene (y de paso avisan de que el XP SP3 saldrá en breve). Tambien han publicado un documento describiendo los cambios de ese SP1: En general, parecen estar corrigiendo varios de esos fallos graves que se dice que deberían haber sido corregidos antes de sacar la versión final. Tambien parecen añadir novedades; una de las más relevantes es un nuevo sistema de archivos heredado de Windows CE basado en FAT y llamado ExFAT que ha sido rediseñado y optimizado para ser utilizado en memorias flash y similares, con la clarísima intención de pasar a ser el sistema de archivos estándar en esos dispositivos. Otra novedad del SP1 será la capacidad de poder arrancar desde EFI en el Vista de 64 bits, que es una de las muchas cosas que Microsoft fue quitando del roadmap de Vista durante su desarrollo.

  • Microsoft retrasa la salida de Windows Server 2008 de finales del 2007 a principios del 2008. Al menos mejorará la coherencia del nombre del producto

29 de agosto de 2007

Iconos en Vista

En Neowin han escrito un resumen sobre el funcionamiento de los iconos en windows Vista. Como ya dije alguna vez, son simplemente imágenes de 256x256; KDE 4 sin embargo tendrá (tiene) un sistema de iconos vectoriales SVG con un sistema de cacheado que permitirá hacer efectos gráficos con los iconos sin caer en la pérdida de rendimiento de los iconos vectoriales y conservando al mismo tiempo su independencia de resolución.

28 de agosto de 2007

Linux, el sistema embebido para smartphones que más crece

Linux the fastest-growing smartphone OS.

Desventaja del enlace: Es una "predicción", probablemente tan exacta como la de que Linux iba a inundar el mercado de escritorio. De todos modos, en este caso esta predicción no me parece exagerada: El mercado de los smartphones es un mercado en clara evolución, la gente quiere ganar mercado incorporando cosas nuevas, y el software libre es la única opción de hacerlo con total libertad.

Se compran votos para manipular estándares ISO

Escenario: Suecia. La trama: Votación del OOXML de Microsoft como propuesta a estandar ISO; pero solo como representación de la opinión sueca. La tónica general parece mostrar que se va a votar claramente que no, ni tan siquiera se va a quedar en abstención.

De repente, justo antes de la votación, aparecen 23 empresas que no habían mostrado ningún interés por el tema, todas ellas 'Partners' de Microsoft, la mayoría de clasificación 'Gold Certified Partner', y solicitan entrar a formar parte del la comisión encargada de estas cosas, para poder votar en la decisión final. Pagan sus 2.500 dólares de cuota sin ningún problema -2.500 dólares son pura calderilla para una empresa-, y votan todas en fila india que si a favor del OOXML de Microsoft como estándar ISO. Resultado final: 25 a favor, 6 en contra, 3 abstenciones. Suecia votará que SI a favor de que OOXML sea estándar ISO. Colorín colorado, esta estafa se ha terminado. Así de crudo y heavy.

Por supuesto, estas 23 empresas tenían todo el derecho del mundo a unirse a esa comisión y dar su opinión. Claro que si. Pero creo que somos lo suficientemente mayorcitos como para creernos gilipolleces y pensar que esto es normal, como si no se viera y no se llevara viendo desde hace muchos meses de que va todo esto, y cual es el interés real de Microsoft.

Solo quiero añadir que quienes sigan apoyando a Microsoft en estos temas a pesar de la evidencia merecen todo mi desprecio moral, y reservense la argumentación de que todo el mundo es inocente hasta que se demuestre lo contrario. Una persona que defienda ciertos principios no puede permanecer ajena a esta patraña y a los lameculos que la aplauden.

27 de agosto de 2007

Otra de skype

Nunca me he metido con skype en este blog, no alcanzo a comprender del todo por qué, con la de material que hay, asi que hoy toca. No me voy a referir a su reciente caida, sino a su privacidad: La versión de Linux de skype te lee /etc/passwd, los datos de firefox, y unas pocas cosas más. Datos primordiales para el funcionamiento de un programa de VOIP, claro.

La verdad es que no me sorprende, ni a mi ni a nadie medianamente informado. Skype es probablemente uno de los mayores atentados contra la privacidad en el mundo del software, y probablemente sobrepasa tambien a buena parte del spyware. Y cuando hablo de privacidad, no me refiero al significado que le dan algunos paranoicos, los que creen que Google es el gran hermano y que no conciben que la gente no use PGP para comunicarse. A mi esos casos no me preocupan, pero lo de skype si..

Por ejemplo, si a una persona normal le dices que un programa te lee la BIOS, no sería sería raro que se mosqueara un poco. Skype lo hacía; curiosamente se detectó cuando se empezó a usar skype en xp de 64 bits y el programa cascaba al intentar leer -se ve que en el de 64 no se permite- la BIOS. Y si solo fuera eso andaríamos bien, pero es que resulta que skype tiene un sistema de protección anti-crack realmente impresionante -lamento no encontrar el enlace- que hacía practicamente analizar lo que hacía el programa. No es casualidad ni sorpresa que el gobierno francés haya prohibido terminantemente su instalación en cualquier ordenador que participe en proyectos de investigación. Tambien tienen ridículas y paranoicas técnicas de protección del protocolo, para impedir que sea analizado. Si alguien pregunta a los de skype que piensan acerca de los estándares, seguro que dicen que los apoyan. Para eso son muy 2.0

En definitiva, que ustedes jamás podrán contactar conmigo a través de skype, y espero que la empresa -que afortunadamente tiene sus problemillas financieros- tampoco se lo permita a otras personas. Es en casos como este donde empieza a hacerse imprescindible SELinux: Uno no puede arriesgarse a ejecutar skype y permitir que le lean a uno sus datos personales.

22 de agosto de 2007

Memoria....¿transaccional?

Sun ha anunciado recientemente una tecnología que, de proporcionar las ventajas que promete, podría marcar una revolución en la manera de afrontar el reto de construir software que aproveche la potencia de los actuales procesadores multicore y sobre todo los futuros, que tendrán decenas o cientos de cores. Como conté aquí, escribir software que utilize técnicas multihilo para aprovechar estos procesadores no solo no es sencillo, sino que es increiblemente complejo e incluso imposible en muchos casos, hasta el punto que algunos sospechan que la apuesta por el multicore acabará en fiasco. Se necesita urgentemente un progreso de algún tipo que permita crear software escalable de forma asequible al programador. La memoria transaccional de Sun quiere ser ese progreso. Pero la cosa no es tan simple: Aparentemente existen implementaciones de memoria transaccional por software, por hardware, e híbridas. Sun parece proponer una solución híbrida. Lo cual deja entreveer que el concepto de memoria transaccional tiene sus cosas.

¿Y qué es eso de la memoria transaccional? Es fácil comprender de que va el concepto atendiendo al significado del nombre, en concreto el de la palabra transacción. En el mundo de las bases de datos, una transacción es un conjunto de operaciones sobre los datos que están garantizadas al 100% que, o se hacen todas a la vez, o no se hacen. Por ejemplo, podría darse el caso de que una empresa necesitara modificar el nombre, la dirección y el teléfono de un cliente en una base de datos . Pues bien, si consideramos como una transacción a la modificación del nombre, la dirección y el teléfono -el programador es quien elige las operaciones que son abarcadas por la transacción- y la base de datos soporta el concepto de transacción y le indicamos que esas operaciones sean una transacción, la base de datos o bien modificará exitosamente todos los campos, o fallará y no modificará ninguno (tambien existe el concepto de "deshacer una transacción"). En el mundo de los sistemas de archivos se ha puesto de moda últimamente el concepto de transacción como método para evitar tener que hacer journaling: ZFS o Reiser 4 o btrfs, por ejemplo, no necesitan journaling, porque las modificaciones críticas al sistema de archivos se hacen de modo transaccional: Se vaya la luz en el momento que se vaya, la estructura y metadatos del sistema de archivos se mantendrán coherentes. NTFS por su parte tiene journaling, pero tambien ha implementado un sistema transaccional respecto a las operaciones que efectua un proceso sobre el sistema de archivos (ZFS sin embargo aunque tiene transaccionalidad respecto a las modificaciones del sistema de archivo en si, no soporta esta transaccionalidad a nivel de procesos).

La cuestión es que aparentemente Sun aparentemente va a añadir soporte de memoria transaccional a sus chips a partir de la segundo mitad del 2008. Esta tecnología permitirá que un proceso pueda marcar como transacción a un conjunto de operaciones que se hagan sobre la memoria. La idea es que esta memoria transaccional sustituya a los locks como sistema para coordinar las operaciones sobre la memoria que comparten. Si puede conseguirlo, a mi no me lo pregunten: Si bien las transacciones pueden utilizarse para garantizar una "atomicidad" de una serie de operaciones, los locks en si tambien son una especie de transacción. Tal como yo lo veo -y no se lo suficiente de bases de datos ni de programación paralela como para poder garantizar que no estoy diciendo una auténtica chorrada-, la ventaja radicaría en que el modelo transaccional permitiría tener a teóricos infinitos procesos progresando individualmente sobre teóricos infinitos cores, y que si alguna de las transacciones es erronea (porque otra transacción ha hecho la misma operacion, por ejemplo) se puede descartar. Esto sería altamente beneficioso en el caso de que no hubiera que descartar muchas transacciones errones: se haría un gran progreso en paralelo.

Pero he aquí que los locks son tambien una especie de transacción atómica sobre una serie de operaciones. La diferencia es que un spinlock o un semáforo o un mutex efectivamente "paran" a todos los demás para garantizar la atomicidad de solamente uno. Se diría por tanto que la memoria transaccional es una técnica "optimista" y destinada a porciones del código con algoritmos específicos que estén diseñados para funcionar con esta técnica y que no vayan a causar que muchas transacciones no sirvan de nada, porque el rendimiento decaería. Los locks sin embargo son "pesimistas" y castigan a todas las CPUs excepto a una. Pero lo cierto es que existen otros sistemas de sincronización que no funcionan exactamente así, en Linux existen técnicas que no se quedan ahí como RCU, que pensándolo ahora se diría que es una especie de técnica relacionada con la memoria transaccional por software y que comparte sus ventajas - de hecho buscando en Google aparece en ciertos foros como proposición de bloque para construir modelos de memoria transaccional por software. RCU es una técnica en la que se hace una copia de la estructura de datos que un proceso determinado va a modificar y modifica esa copia dejando el original intacto, mientras que al mismo tiempo los procesos que tan solo quieren leer la estructura de datos pueden leerla sin sufrir ningún tipo de espera. Una vez modificada la estructura, se modifican unos punteros para que los nuevos lectores que van apareciendo y que quieren leer la estructura, lean la nueva estructura que había sido copiada y modificada, mientras que al mismo tiempo los antiguos lectores que empezaron a leer la estructura antes del cambio siguen leyendo la estructura de datos vieja. Una vez que no queda ningún proceso leyendo la estructura de datos vieja, se borra de la memoria. Sin duda, tiene cierto caracter "transaccional", o al menos permite a infinitos lectores e infinitos escritores estar trabajando simultaneamente sin quedarse bloqueados en una sola CPU.

El caso es que RCU solamente se aplica a ciertas porciones del código, que han sido rediseñadas para aprovechar las ventajas de RCU, no a cualquier lado, y utilizarlo en ciertos sitios sería simplemente absurdo y dañaría el rendimiento: Lo cual demuestra que la memoria transaccional no es simplemente "magia". Pero RCU es una de las claves que permite a Linux funcionar en sistemas con miles de procesadores, lo cual demuestra que a pesar de que no sea "magia", ayuda en gran medida a lidiar con el paralelismo. Y el sistema de Sun, sin ninguna duda, tambien lo hara. Eso si, Linux lleva alguna ventaja a la hora de programar algoritmos que aprovechen estas estructuras, aunque está por ver como ayudará la implementación por hardware de Sun a crear y manejar estas técnicas..

21 de agosto de 2007

KDE4 + SQL

El sistema de configuración de KDE 4 tendrá un backend sqlite opcional. A día de hoy se utiliza un formato similar a los .INI de windows (no por ello peor, por supuesto)

19 de agosto de 2007

Citas

He aquí una entrevista a Linus Torvalds, interesante y algo larga. Cito aquí los párrafos más interesantes:

"I've never been much of a visionary -- instead of looking at huge plans for the future, I tend to have a rather short timeframe of 'issues in the next few months'. I'm a big believer in that the 'details' matter, and if you take care of the details, the big issues will end up sorting themselves out on their own. [...] In fact, when it comes to me personally, one of the things I worry about the most isn't even the technical issues, but making sure that the 'process' works, and that people can work well with each other".

(Sobre los parches de tiempo real) "I'm a big fan of low-latency work, but at the same time I'm pretty conservative, and I pushed back on some of the more aggressive merging, just because I want to make sure that it all makes sense for not just some extreme real time perspective, but also for 'normal' users who don't need it."

"I'm arrogant enough that I think we can easily compete against Solaris, and I actually think competition just tends to make people more motivated. So no, I'm not threatened at all."

"Actually, just yesterday we had a git performance issue, where ZFS was orders of magnitude slower than UFS for one user (not under Linux, but git is gaining a lot of traction even outside of kernel development). So I think a lot of the 'new file system' mania is partly fed by knowing about the issues with old filesystems, and then the (somewhat unrealistic) expectation that a 'new and improved' filesystem will make everything perfect."

"One thing that I'm personally more excited about than any of the filesystems you mention is actually the fact that Flash-based hard disks are quickly becoming available even for 'normal' users. Sure, they're still expensive (and fairly small), but Flash-based storage has such a different performance profile from rotating media, that I suspect that it will end up having a large impact on filesystem design. Right now, most filesystems tend to be designed with the latencies of rotating media in mind."

"I like making strong statements, because I find the discussion interesting. In other words, I actually tend to 'like' arguing. Not mindlessly, but I certainly tend to prefer the discussion a bit more heated, and not just entirely platonic. And making strong arguments occasionally ends up resulting in a very valid rebuttal, and then I'll happily say: "Oh, ok, you're right."

"I think having multiple distros is an inevitable part of open source. And can it be confusing? Sure. Can it be inefficient? Yes. But I'd just like to compare it to politics: 'democracy' has all those confusing choices, and often none of the choices is necessarily what you 'really' want either, and sometimes you might feel like things would be smoother and more efficient if you didn't have to worry about the whole confusion of voting, different parties, coalitions, etc. But in the end, choice may be inefficient, but it's also what keeps everybody involved at least 'somewhat' honest. We all probably wish our politicians were more honest than they are, and we all probably wish that the different distros sometimes made other choices than they do, but without that choice, we'd be worse off."

Sobre la GPL3: "I think it is much improved over the early drafts, and I don't think it's a horrible licence. I just don't think it's the same kind of 'great' licence that the GPLv2 is. So in the absence of the GPLv2, I could see myself using the GPLv3. But since I have a better choice, why should I? That said, I try to always be pragmatic, and the fact that I think the GPLv3 is not as good a licence as the GPLv2 is not a 'black and white' question. It's a balancing act. And if there are other advantages to the GPLv3, maybe those other advantages would be big enough to tilt the balance in favour of the GPLv3.

"The only thing that I think can really ever displace the x86 architecture would come from below, i.e., if something makes us not use x86 as our main ISA in a decade, I think it would be ARM, thanks to the mobile device market."

Pues a mi me parece bien

(Enlace real de este post, para los lectores del planet augcyl).

Una vez más, nuestra gloriosa patria ESPIÑOLA ha sido noticia en los medios extranjeros imperialistas: Si recientemente fuimos noticia por las viñetas del -aparentemente trabajador y casto, a juzgar por la reacción- principe, hoy lo somos en slashdot por un artículo de barrapunto que enlaza a uno de Gallir y otro de otro tipo (caray con la telaraña de la red) donde cuentan que TVE y Antena 3 han publicado sendos reportajes donde un periodista del programa vandalizaba en tiempo real y visualmente la wikipedia, para mostrar lo sencillo que era hacerlo.

Las reacciones no se han hecho esperar en los comentarios de esas noticias, y las críticas a RTVE y a Antena 3 han sido tremebundas: amarillismo, telebasura, para esto pagamos impuestos, bibliotecarios escribiendo textos cargados de indignación. No se si seré el primero, pero por si acaso declaro aquí publicamente que estoy en absoluto desacuerdo con esas críticas: No me parece mal, mas bien al contrario, que Antena 3 y RTVE informen y muestren estas cosas.

Si la Wikipedia tiene un sistema por la que una persona completamente anónima puede introducir cualquier gilipollez o manipulación burda que es reflejada inmediatamente en el artículo, y hay que esperar un tiempo -aunque sean tan solo 11 minutos, como ocurrió en uno de los ejemplos; aunque se han detectado casos en los que se tardó hasta 8 días- a que sea corregido, el problema es de la Wikipedia, no de los periodistas que te muestran -informan- que eso puede ocurrir y que por tanto nadie te puede garantizar al 100% la informacion que acabas de leer en uno de sus articulos. Las críticas citadas lo ha comparado erroneamente con el vandalismo vulgar y corriente de las calles; falacia, porque quien editó la wikipedia no incumplió ninguna ley o regla que si incumplen quienes vandalizan de verdad en la calle. En este caso las televisiones simplemente utilizaron los sistemas y medios que la wikipedia ofrece usualmente a cualquiera de sus usuarios, no rebuscaron fallos ni buscaron pies extras al gato, y su único pecado es moral: saber que lo que iban a introducir no era cierto. Habrá quien diga que la wikipedia prohibe introducir información que no ha sido analizada como válida y carece de referencias, pero yo retaría a que me demostraran qué porcentaje de la información que se introduce en la wikipedia cumple ese requisito.

El volumen de visitas de la wikipedia es tan alto que implica que alguien vio, mientras buscaba información en google o en cualquier otro lado, esa información erronea en el artículo que manipularon los de la televisión. En otras palabras: el sistema de la wikipedia no puede garantizar el 100% del tiempo la calidad de la información. Y en vez de criticar a quienes informaron de que eso es así y de que no puedes estar seguro al 100% de que alguien no haya hecho lo mismo en cualquiera de las entradas de la wikipedia que lees a diario, creo que alguien tendría que hacer una reflexión sobre esto -en la noticia de slashdot algunos comentarios aislados la han hecho, no es simple casualidad que los estadounidenses dominen el mundo- y preguntarse si el problema real no estará en que el sistema de la wikipedia simplemente no es perfecto, y que tal vez sea necesario introducir mecanismos que combinen la facilidad de contribución de los usuarios anónimos con mecanismos de filtrado del vandalismo.

Por cierto, nadie ha reflexionado sobre lo importantísimo que es que la Wikipedia se haya convertido en algo tan importante que sale en los medios de comunicación. Ni la mala imagen que da carecer de mecanismos que impidan que la calidad de la Wikipedia sea puesta en duda en las televisiones con ejemplos practicos.

18 de agosto de 2007

Citrix compra Xensource

En fin, ya lo habia visto hace unos dias, como mucha otra gente, pero no podia dejar de hablar de ello: Citrix ha comprado la empresa que inventó Xen y puso de moda la "paravirtualización", por 500 milloncejos de nada.

Es una pena que a largo plazo pueda convertirse en un absurdo gasto de dinero. Pero la virtualización está -dicen- de moda y nadie quiere quedarse atrás. Ulrich Dreeper, el mantenedor de la libc de GNU desde hacer años y trabajador de Red Hat, ha escrito un post explicando porque el diseño de Xen se ha orientado en una mala dirección (igual que VMWare) y como soluciones como KVM son una mejor base desde el punto de vista técnico (KVM fue diseñado para aprovechar la virtualización por CPU, a diferencia de Xen, que tambien funciona en CPUs que no soportan esa virtualización, CPUs que dejarán de existir en el futuro).

En el caso de Vmware, Ulrich además cita a unas declaraciones de uno de los fundadores de Vmware, diciendo que la virtualización va a acabar con los sistemas operativos. Para dejar paso a la virtualización. Probablemente la suya, claro.

Es dificil resumir en un post lo absurdo de lo que predica este señor. Gran parte de las razones por las que hoy existe la virtualización se debe, no hay duda, a defectos y malas prácticas en los sistemas operativos. En concreto, la falta de isolación. La falta de evolución en los sistemas de archivos (por qué no extender sistemas de archivos como ZFS a que sean capaces de hacer copias de seguridad del estado de una aplicación). Pero sin sistema operativo, la virtualización tendría que implementar su propio sistema de archivos que lo hiciera. Ah, carallo. Y la pila TCP/IP, y etc. Vmware no puede proporcionar la funcionalidad que proporciona un sistema operativo -de momento. Su objetivo en realidad no es reemplazarlo -de momento-, sino ponerse por debajo de ellos: Que Windows se ejecute como una aplicación más en Vmware. En otras palabras, han olido el dinerito de microsoft, y lo quieren, porque de ejecutar windows a intentar crear una infraestructura que sea capaz de anular a windows va un paso. O quizás no aspiran a tanto, pero desde luego su intención es la de sacar el dinero a microsoft. Paguen ustedes X dinero por una licencia de Vmware para ejecutar aplicaciones en su equipo nuevo.

En su mundo ideal, se acabarían compenetrando, entiendo yo, con los fabricantes de hardware para crear una capa de hardware abstracto en el cual con unos drivers básicos y una capa básica de gestión de memoria y de procesos se ejecutarían los sistemas operativos; a partir de ahí se podría extender Vmware como sistema operativo. Eso al menos es lo que puedo leer en la mente y las declaraciones de este señor. Pero he aquí un problema: Con este modelo no acabaría "anulando" los sistemas operativos, simplemente acabaría reemplazándolos con otro. Ah, carallo. Y he aquí otro problema: Resulta muchísmo más fácil para microsoft y linux implementar una capa de virtualización que a vmware llevar a cabo su plan. De ahí las ansias de Vmware de que el estándar de virtualización más utilizado sea el suyo, que sea su hypervisor el modelo que se use, y no otro: Necesitan margen de maniobra y, sobre todo, dinero, para llevar a cabo su plan.

13 de agosto de 2007

La estupidez de gnome-cups-icon

Hoy me he dado cuenta de que si uso gnome tengo un programa llamado gnome-cups-icon ejecutándose constantemente en mi sistema, que parece ejecutarse en todos los sistemas con Gnome, al menos en ubuntu. Tiene toda la pinta de ser el programa encargado de mostrarte un icono en el systray cuando mandas trabajos a la impresora, o algo así. Como no tengo impresora en este equipo, el programa se ejecuta constantemente y nunca muestra nada.

Lo he descubierto mientras ejecutaba top, porque lo vi subir un momento a la lista de procesos con mayor consumo de CPU. ¿Que estará haciendo el programa, para tener actividad alguna, si yo no tengo impresora? Incapaz de responder la pregunta, tiré de la herramienta canónica para este tipo de situaciones: strace -p `pidof gnome-cups-icon`.

Mi sorpresa fue comprobar como este programita se activa cada pocos segundos. ¿La razón? Parece ser que este programita se conecta cada 3-4 segundos a un socket local donde presumiblemente consulta a CUPS a ver si hay alguna impresora o trabajo de impresión nuevo. En resumen, una consulta constante, que en 1 hora de uso de ordenador me ha consumido 9 segundos de CPU -imagínense, 9 largos segundos gastando millones y millones de ciclos en una CPU moderna funcionando al 100%- por designio divino.

No se en los muertos de quien ciscarme, si en los de los autores del icono o los de CUPS. En teoría, en un sistema perfectamente diseñado, no habría que andar haciendo el paripé consultando nada; CUPS notificaría la presencia de trabajos y de algún modo se ejecutaría el programa que muestre el icono; utilizando mecanismos de DBUS por ejemplo. Porque esa es otra, gnome-cups-icon consume 8600 KB de memoria (6000 y pico compartidos) debido a la necesidad de estarse ejecutando constantemente. De hecho, en un sistema perfecto, CUPS no se iniciaria hasta que no se conectara la impresora o se enviara un trabajo -como creo que se hace en OS X gracias a su reemplazo de los scripts de inicio-, porque dime tu a mi que sentido tiene tener CUPS (que solo consume 1800 KB de memoria) en un sistema que jamás va a imprimir ni tener conectada ninguna impresora. En cualquier caso, lo del programa del icono es una chapuza y un cachondeo.

11 de agosto de 2007

SCO finalmente tumbado

Es noticia en todos los lados: Los juzgados consideran que SCO no posee los derechos de copyright sobre el código de UNIX y UnixWare; son de Novell.

Esto no es el fin del caso de SCO, pero ahora que se ha llegado a este punto, SCO no puede pedir nada a IBM al no tener derecho alguno. SCO por tanto está KO.

8 de agosto de 2007

Al final teníamos razón

Pues al final que teníamos razón. Todos los que decíamos que Vista se había terminado rápido y mal, que tenía demasiados fallos para una versión final, que había que esperar al SP1 por fuerza, no nos equivocábamos. Se nos acusó de anti-microsoft, de tergiversar, de exagerar, y Microsoft por su parte sacó la argumentación políticamente correcta de que Vista era un producto estable y de buena calidad.

Ahora sabemos que teníamos razón, que no eran exageraciones absurdas todos esos rumores, que Vista daba argumentos reales a todas esas quejas. Sin duda, muchos aprovecharon esos argumentos para llamar al catastrofismo, pero eso no invalida los hechos, que han quedado demostrado al haber sacado Microsoft no una, sino dos actualizaciones con "mejoras del rendimiento y la fiabilidad": Esta y esta, en concreto.

En principio no son un SP, son lo que dicen su nombre: un "pack de mejoras" etc etc. Pero objetivamente contienen los mismos tipos de parches que cabría esperar en un SP. Es decir, se trata de un SP encubierto. Un conjunto de parches para arreglar el correspondiente conjunto de fallos que, por su gravedad, no pueden esperar a un SP. Y como serán de graves para no poder esperar a un SP (aparte de los SP, Microsoft solo suministra actualizaciones de seguridad mediante windows update, casi nunca fallos críticos).

Es obvio que con estos parches Microsoft quiere que Vista se quite de encima esa fama de inestable y de que "se necesita esperar a un SP" para empezar a usar un producto de Microsoft. Pero como acabamos de razonar, esa fama está plenamente justificada en este caso. Está muy bien que Microsoft parchee Vista y quiera estabilizarlo, pero no es de recibo que despues de esto pretendan que la industria se crea que todos los fallos de Vista se han solucionado.

La lista de fallos que se corrigen confirman lo que digo: inestabilidades en la gestión de memoria, pérdidas de memoria, corrupción de archivos, extrema lentitud (este es el problema más famoso de Vista, que ya se detecto y se reportó en numerosas ocasiones durante las betas y que no fue corregido en la versión final, lo cual da otra pista del control de calidad que se llevó a cabo) al copiar archivos en red, cuelgues, parones. El subsistema de video, rediseñado en Vista, parece haber sido víctima de varios de esos fallos críticos. Parecen confirmar que, como se decía, es evidente que el desarrollo de esta versión de Windows ha sido más caótica y precipitada de lo que debiera y que la calidad final del producto se ha resentido por el deseo precipitado de querer sacarlo y mejorar los resultados fiscales, que empezaban a resentirse por la falta de ventas.

De momento, estos parches se pueden descargar, pero no se meten a través de las actualizaciones de Windows Update de momento: eso se hará más tarde, según Microsoft. El objetivo de que se vaya a esperar un tiempo para meterlo en Windows Update solo puede ser que no esten seguros de que estos parches no vayan a causar problemas. ¿Tan pobre está siendo el control de calidad en Vista para que no se atrevan a exponerlos al público masivamente, como hacen con los parches de seguridad? Francamente, todos estos síntomas no dan confianza alguna en Vista, más bien contribuyen a crear desconfianza. Despues de todo esto, ¿quien es el loco capaz de lanzarse a usar Vista sin esperar al SP1?

7 de agosto de 2007

Noticias varias

5 de agosto de 2007

Es asombroso

"Es asombroso que haya tanto ruido con el problema de ETA cuando tenemos una amenaza más importante en esa materia. Yo he gobernado con cincuenta muertos de ETA, y Adolfo Suárez, con setenta y con ochenta. Y resulta que entonces parecía que ETA tenía menos importancia que la que hoy le atribuyen, cuando ahora está muy debilitada, aunque pueda matar, ¡eh!, que eso lo digo por propia experiencia, que en algún momento puede matar. Pero ETA está derrotada. Y la cuestión está clara: ¿por qué es más importante ETA ahora que está derrotada que hace veinticinco años, cuando secuestraba y mataba en la dimensión que todos hemos conocido? ¡Es que no es verdad, ETA, no es más importante ahora! ¡Es una manipulación política irresponsable! Pero aún es más ofensivo que haya gente que diga que es "un milagro" que se detenga a los terroristas de ETA. Porque yo que he estado en la sala de máquinas, igual que estuvo, por cierto, quien dice ahora esa barbaridad, sé que el mundo de los milagros pertenece a quienes se oponen a la educación para la ciudadanía. Lo que se está produciendo no es un milagro, sino el resultado de la eficacia de los cuerpos y fuerzas de seguridad del Estado. Esto es lo que me turba de nuestra situación política: que estamos viviendo de falsos problemas."

Felipe González en una entrevista a El País. Manda narices que un presidente tan nefasto y delincuente como él tenga mejor visión del estado que los supuestamente buenos y limpios del gobierno actual y de la oposición. Eso da una idea de lo terrible que es el estado de la política española.

2 de agosto de 2007

Alea iacta est

Ya está disponible la primera beta de KDE 4.0, alias ‘Cnuth’. La suerte está echada.

Aunque francamente, no se puede decir que sea una beta desde cierto punto de vista: El reemplazo de kicker basado en Plasma aun no existe, y el theme ‘Oxygen’ aun no está terminado, según tengo entendido. Por tanto, como no están todos los elementos que estarán en la versión .0 final, se trata más bien de una especie de Alpha 3….pero al mismo tiempo no lo es. Lo que quiero decir es que a lo que los desarrolladores de KDE llaman Beta es a los pilares tecnológicos base que se utilizan para construir aplicaciones. de hecho, en el anuncio se especifica claramente que el principal objetivo de esta Beta es congelar la interfaz de las librerías, y dedicarse solamente a estabilizarlas…las aplicaciones no. Desde ese punto, el futuro reemplazo de kicker es una aplicación más…

Si, ya se que la concepción tradicional es que KDE 4.0 es un escritorio y que una beta del mismo debería portanto mantener una calidad beta a todos los niveles, incluidas las aplicaciones. Pero la separación conceptual en esta ocasión de los pilares tecnológicos y las aplicaciones que los usan no deja de tener sentido: Portar una aplicación a la infraestructura de KDE 4.0 no es sencillo y muchos desarrolladores de aplicaciones solamente van a comenzar a portarla cuandose les garantize que las nuevas interfaces no van a modificarse radicalmente. Jode bastante portar una aplicación a una API y que al día siguiente esa API cambie y haya que comenzar de nuevo.

Las principales novedades de esta Beta vienen explicadas en el enlace de antes, y de esas yo destacaría estas:

  • Se añade un clon de Google Earth que puede -y aquí es donde se manifiestan las diferencias entre KDE y Gnome- ser utilizado por otros programas para, por ejemplo, mostrar la localización física de una persona en un juego, o la localización de un evento histórico en un pograma educativo.
  • Se incorpora el cache de iconos.
  • Kwin, el gestor de ventanas, ha sido modificado para poder hacer efectos a lo compiz, e incluso para desactivarlos cuando la capacidad gráfica del equipo en el que se ejecuta no es una maravilla.
  • Integración entre Dolphin (el visor de archivos) y Konqueror (que sigue siendo el navegador), Alpha 2 de Koffice 2.0….

Logo de KDEEl anuncio de la Beta tambien detalla los próximos pasos del proyecto para acercarse a KDE 4.0, y merece la pena traducirlo: “Ahora que las librerías de KDE son bastante estables, el desarrollo está centrándose en terminar los componentes del resto del escritorio. Uno de los componentes más notables es Plasma.Los desarrolladores ya están preparados con la infraestructura para los plasmoids, pero la mayoría de ellos aun no se han distribuido. El desarrollo de esas características está llevándose a cabo en los repositorios de KDE. Por lo tanto, cuando arranques la Beta 1 de KDE 4.0 todavía verás el viejo Kicker, el Panel de KDE y la barra de tareas. Se ha añadido soporte de Javascript a Plasma, y de acuerdo con su principal desarrollador dentro de poco se podrían soportar los widgets de Dashboard de Mac OS X (los de superkaramba ya están soportados, y a estos podrían seguirlos los de Opera)