News

Les ingénieurs de Google pourraient bientôt lever le voile sur une solution de streaming centralisée permettant d'accéder à sa collection de médias via une connection Internet. En effet, Vic Gundotra, vice-président de l'ingénierie, a annoncé le rachat de la société Simplify Media.

Initialement disponible au sein de l'App Store, l'application Simplify Media fut ensuite retirée de la logithèque d'Apple. Cette dernière permettaient de centraliser sur son ordinateur différents médias (musique, photos) pour y accéder directement depuis son iPhone en streaming via une connexion WiFi ou 3G. Le partage fonctionnait également sur d'autres terminaux secondaires comme un netbook ou un ordinateur portable connectés à un PC central faisant alors office de serveur.

Sur son blog officiel, l'équipe de Simplify media annonçait - sans plus de précision - au mois de mars vouloir changer de stratégie et stopper le téléchargement de l'application. Il semblerait finalement que les développeurs se soient joints à l'équipe de Google pour concocter une toute nouvelle version compatible avec Android. Ce dispositif de streaming devrait donc trouver sa place sur les smartphones mais aussi pourquoi pas sur nos postes de télévision à l'avenir. Cette technologie pourrait également s'avérer particulièrement intéressante pour les futurs utilisateurs de Chrome OS ne souhaitant pas répliquer l'ensemble de leur médiathèque sur un terminal d'appoint mais simplement y accéder à distance.

Notons par ailleurs, qu'au travers de la présentation du système Android 2.2, certains ont remarqué la présence d'un nouvel onglet baptisé Music au sein de l'Android Market ; un élément qui laisse suggérer l'intégration d'une plateforme commerciale de musique directement accessible depuis le smartphone.
le 21/05/2010 à 22:27
Opera fait trois fois mieux en Europe
Depuis que le choix du navigateur Internet est instauré à l'achat d'un nouveau poste (ballot screen), Opera Software recense un triplement du nombre quotidien de téléchargements de ses navigateurs en Europe. Malgré une marge de croissance qui ne peut être qu'importante, Opera se ferait un chemin sur la pointe des ballerines.

A l'occasion du sommet Reuters sur les valeurs technologiques, l'agence de presse rapporte les propos de Jon von Tetzchner, cofondateur d'Opera. Ce dernier lance simplement : « Nous constatons une augmentation importante de notre base d'utilisateurs (...). Dans l'ensemble, nous sommes satisfaits ». Disponible sur iPhone et bientôt sur l'iPad, le navigateur reste pourtant un peu à la traine face aux autres navigateurs en Europe.

Selon le cabinet Statcounter entre avril et mai 2010, Opera ne détenait qu'1,93% de part de marché. Pour autant, la réussite d'Opera est à chercher du côté du marché mobile puisque toujours selon le cabinet d'études, Opera est toujours numéro un mondial avec 27,01% de parts de marché en avril, contre 20,16% pour le Safari d'Apple. Il semble donc que le navigateur ait trouvé sa vitesse de croisière.
Yahoo! vient d'annoncer la tenue d'une conférence de presse, lundi prochain à New York, en présence de sa PDG Carol Bartz, censée faire une « excitante annonce concernant de nouvelles expériences mobiles à destination des consommateurs du monde entier » : un événement qui pourrait, selon certaines sources, avoir un rapport avec les rumeurs de partenariat entre le moteur de recherche américain, et la firme de téléphonie finlandaise Nokia.

Connu sous le nom de "Projet Nike" - un choix plutôt prétentieux puisqu'en relation avec la déesse grecque de la victoire, et non avec la marque de sport ce partenariat présumé devrait principalement porter sur l'intégration de services proposés par Yahoo!, tels sa messagerie ou son moteur de recherche, dans les mobiles Nokia et sur l'Ovi Store. De précédentes rumeurs avaient fait état d'un possible téléphone mobile entièrement centré sur les services du portail américain, mais selon la journaliste de All Thing Digital Kara Swisher, qui semble bien informée, une telle annonce ne serait pas à l'ordre du jour.

Contrairement à son principal rival Google, qui a fait de l'univers mobile une partie non négligeable de ses activités en proposant de nombreuses applications et l'OS mobile Android, Yahoo! apparaît comme à la traîne. Depuis plusieurs semaines, la société de Carol Bartz cache de moins en moins sa volonté de rattraper son retard sur la firme de Mountain View. Un partenariat avec Nokia, qui dominait le marché mondial de la téléphonie mobile à hauteur de 37.9% en décembre dernier, pourrait lui permettre de mettre le pied à l'étrier.
Si Microsoft a récemment levé le voile sur les nouveautés du prochain Hotmail en attaquant directement Google via un tableau comparatif et une série de vidéos, Yahoo! entend bien rester dans la course. C'est ainsi que sur l'un de ses blogs officiels, Vish Ramarao, chargé de la lutte anti-spam rapporte une étude menée par l'institut allemand Fraunhofer, principalement connu pour avoir développé l'algorithme de compression des fichiers MP3. Au travers de ce rapport publié au mois de mars il apparait que Yahoo posséderait les filtres anti-spam les plus performants sur son webmail devant Hotmail, Gmail, Web.de et GMX.

Les experts de l'institut Fraunhofer ont ainsi envoyé différents types de courriers en mesurant l'efficacité des filtres de défense mais également en calculant le nombre de faux-positifs, c'est-à-dire le nombre de messages légitimes accidentellement identifiés comme spam. Sur une période d'un mois, une adresse de type Gmx.com aurait reçu 116 spams contre 57 pour Web.de, 18 pour Gmail, 13 pour Hotmail et 8 pour Yahoo!. Le système de défense de Yahoo! Mail atteindrait un taux d'efficacité supérieur à 99%. De son côté, l'équipe de Hotmail annonce aujourd'hui sur son blog bloquer chaque jour 5,5 milliards de spams avec un taux de fiabilité supérieur à 98%.

Yahoo! bloquerait aujourd'hui 120 milliards de spams chaque mois, soit en moyenne 400 courriers indésirables par utilisateur et par mois. L'étude complète, en allemand est disponible ici (PDF).
Dirk Marichal est vice-président EMEA d'Infoblox, une entreprise américaine spécialisée dans la gestion des adresses IP, des DNS et DHCP. Infoblox vient de racheter Netcordia, et travaille désormais à l'intégration de sa solution avec celle de Netcordia, qui propose de la gestion des changements de réseau pour anticiper les problèmes. Il revient avec nous sur l'évolution récentes de la gestion des réseaux, notamment avec l'accroissement du nombre d'adresses IP, et les perspectives apportées par l'IF Map.

Dirk Marichal, bonjour. Vous présentez une solution qui se veut innovante pour la gestion réseau, mais ce n'est pas un problème nouveau. N'a t-il pas été résolu par les décideurs IT ?

Le problème n'est pas si ancien. Oui, il a toujours fallu gérer le réseau. Nous sommes sur un segment particulier avec Infoblox. Nous sommes partis du constat que les réseaux s'étaient développés à deux niveaux : les infrastructures, et les applications. Mais il y a un fossé entre les deux : le DDI, ou la gestion des DNS, des DHCP et des adresses IP. Et là le problème est nouveau. La possibilité d'avoir des adresses IP en nombre quasiment illimité permet d'avoir toujours plus d'appareils connectés. Les smartphones, les ordinateurs portables... Mais comment gérer ces adresses IP. Avec les anciennes adresses IP, un administrateur réseau pouvait se souvenir de 30... 40 adresses au maximum. Mais avez-vous déjà vu une adresse IPV6 ? C'est impossible, avec les méthodes actuelles. Les administrateurs réseaux les gèrent avec des tableurs Excel, mais c'est là aussi impossible. Et nous ne parlons pas encore des problèmes de business : dans le cadre de fusions, d'acquisitions, on voit régulièrement surgir des conflits entre adresses IP. Le tableur Excel ne fonctionne plus, on ne peut plus gérer les adresses IP manuellement, et toutes les entreprises commencent à se rendre compte qu'il faut standardiser.

Sans les DNS, les applications ne fonctionnent pas. Donc ici aussi, il y a un besoin de standardisation et de professionnalisation de la couche DDI. Notre succès confirme que nous avons vu juste : au cours des trois ou quatre derniers trimestres en Europe, nous avons crû de 25% par trimestre. Au cours du dernier, nous avons généré 10 millions en Europe, notre deuxième marché, pour 22 millions aux Etats-Unis. Aujourd'hui, tout le monde veut se mettre à la virtualisation. Quand ils s'agit de faire un petit site, ce n'est pas vraiment un problème, mais dès que les clients veulent un vrai déploiement, ils sont obligés d'acheter des appliances. C'est un phénomène nouveau, et le marché a même été reconnu par Gartner.

En fait, avec l'augmentation du nombre d'adresses IP, on peut espérer que leur coût unitaire baisse par un effet d'économies d'échelle. Mais dans les faits, ce qu'on voit, c'est que ce n'est pas le cas. Pourquoi ? Parce que la gestion des adresses IP est toujours manuel. Le coût est même de plus en plus élevé avec l'augmentation de la base d'adresses IP. Imaginez par exemple un changement de réseau. Ca peut prendre 20 minutes techniquement. Mais si on veut provisionner les adresses IP pour ce changement, ça prend beaucoup plus longtemps. Il faut demander des adresses IP aux gens de Microsoft... Ca repousse d'autant plus, parfois à plusieurs jours. Ce qui se passe aussi, c'est qu'il y a une déconnexion totale entre le fichier Excel, et les adresses IP réellement présentes. Quand on les compare, on se rend compte que ce n'est jamais concordant. C'est ce manque de cohérence que nous résolvons.

Mais les grandes sociétés, comme Microsoft dans votre exemple, ont d'autres systèmes... Ils ne sont pas suffisants ?

Eh bien restons sur cet exemple. Comment fait l'équipe de Microsoft quand ils reçoivent votre demande ? Avec un tableur Excel ! Ce qui fait qu'au bout de trois jours, quand l'administrateur réseaux reçoit ses adresses, la première chose qu'il fait, c'est un ping... Pour parfois se rendre compte qu'il y a un conflit, que l'adresse existe déjà. Microsoft fait bien Active Directory, mais ils n'ont ni le temps ni l'énergie pour les DNS et DHCP. Ils n'ont aucune solution de gestion globale. Les gens font tout à la main, c'est incroyable.

La solution d'Infoblox apporte du contrôle et de la visibilité en temps réel : qui a quelle adresse IP, sur quel réseau, quel VLAN, quel switchport... C'est une vue globale. Si quelqu'un se branche en éthernet, il apparaît automatiquement dans l'interface. Il y a des solutions, qui viennent d'IBM, ou d'HP par exemple. Leur désavantage, c'est que quand une société veut automatiser ses réseaux, elles imposent leur solution entière. Il faut tout de suite travailler sur un gros projet pour que ce soit intéressant. Les entreprises pensent que pour simplifier leur gestion du réseau, et résoudre leurs problèmes, elles doivent aller chez les gros fournisseurs. Mais ces derniers n'ont pas de solution personnalisée. Ils donnent tout en bloc, et cela rend finalement l'environnement encore plus complexe. Nos clients l'ont compris, et une fois de plus notre succès en atteste. En France, des entreprises comme SFR, Total, Bouygues Telecom, Veolia, Crédit agricole, mais aussi des ministères, l'Intérieur, le Travail, et des universités nous font confiance parce que nous cherchons au contraire à simplifier la gestion et le contrôle des réseaux. Et nous nous attaquons maintenant aux PME.

Justement, avec le rachat de Netcordia, vous souhaitez intégrer leur solution de prédiction avec vos boîtiers... Est-ce que vous n'allez pas vers une solution unique lourde et difficile à personnaliser, comme les autres grands fournisseurs ?

Notre stratégie est certes d'intégrer les deux solutions, mais si vous voulez une licence pour un module indépendamment du reste, c'est tout à fait possible. Ils nous a semblé logique d'aller vers une intégration, car Netcordia, que nous avons racheté récemment, et Infoblox, ont des solutions complémentaires. Donc nous espérons avoir une solution intégrée dans les 6 mois, voire un an. Gestion des DDI avec Infoblox, nous l'avons vu, et gestion du changement avec Netcordia. Nous en avons parlé : le principal problème d'un réseau, c'est le changement. Lorsqu'on fait un switch, un remplacement de serveur, une intervention pour réparer du matériel, on est incapable de prévoir ce qui va se passer. Il est donc impossible de prédire et d'anticiper les problèmes. Ce que Netcordia permet, avec sa solution de gestion des changements de réseau. Quand les gens installent la nouvelle version du système de Cisco par exemple, ils n'imaginent pas l'impact sur le réseau. Des problèmes surgissent, il faut enquêter, etc. Ca prend du temps, ça coûte cher, et ça mobilise du monde. La solution de Netcordia... Notre solution est compatible avec un bon nombre de standards, pour générer des rapports par exemple, grâce à nos partenariats technologiques.

D'une manière générale, les gens qui vont vers l'automatisation - et ils sont nombreux, nous avons plus de 40 000 appliances pour plus de 4 000 clients dans le monde, voient un retour sur investissement en quelques mois. Et les entreprises ont de toute façon besoin d'aller vers l'automatisation. Ne serait-ce que pour gérer des réseaux souvent hétérogènes, qui nécessitent beaucoup de flexibilité. Il y a la question du manque de ressources aussi : avec la crise économiques, beaucoup de gens ont été licenciés, et le travail quotidien doit être fait avec moins de personnel. Donc il faut standardiser pour atteindre le même niveau, et faire face à l'augmentation de la complexité de l'IT. Avec la solution de gestion des changements dans le réseau, on peut donner un historique de tout ce qui a été fait, et montrer l'impact des actions sur le réseau. De même, on peut aider la conformité aux politiques réseau de l'entreprise. Si des règles sont définies, des protocoles, un administrateur ne pourra plus faire d'actions qui vont à l'encontre de cette politique, pour garantir contre les problèmes de réseau.

Autre grande tendance annoncée - notamment à l'occasion d'un événement à Londres récemment - l'arrivée de l'IF Map. Pouvez-vous nous en dire plus ?

C'est très simple : l'IF Map est un protocole standardisé, créé par le Trusted Computing Group, qui regroupe de grandes sociétés, comme HP, Juniper, Microsoft, McAfee et Symantec. Infoblox en fait partie, ce qui nous permet d'assurer une compatibilité de nos solutions avec ce standard. En clair, si un appareil est compatible IF Map, il pourra communiquer aisément avec tous les autres. Avant, la difficulté pour faire transiter des données, et faire communiquer différents réseaux, venait d'un besoin d'écrire du script... Et donc une énorme perte de temps, d'argent, et d'efficacité, notamment quand il s'agit de gérer les nouvelles versions de logiciels ou matériels de ses fournisseurs. Avec l'IF Fap, toutes les données dans le réseau ou les environnements pare-feu, switching, routeur, sont envoyées vers un serveur IF Map centralisé. C'est un peu le Facebook des données, même si je n'aime pas cette expression.

L'IF Map consiste donc en une surcouche unifiée qui permet la communication. Le serveur est ainsi capable de chercher des données, faire des transactions, etc. Par exemple, si je viens dans votre société, et que vous me faites faire un badge pour passer un portique physique d'accès aux locaux, je vais être reconnu comme Dirk Marichal. Avec un système IF Map, lorsque je vais badger, je vais être reconnu, et mes données pourront être exploitées par d'autres installations. Imaginons que je connecte mon ordinateur à votre réseau. Le pare-feu me reconnait alors, et peut prendre une décision : il peut me donner un accès personnalisé à une partie du réseau, à Internet, à mes mails, etc. Tout le monde est très enthousiaste sur ce nouveau protocole. Lors de l'événement, que nous avons organisé à Londres la semaine dernière avec Juniper, 120 entreprises étaient présentes. Et 25 voulaient investir dans cette nouvelle technologie. C'est encore quelque chose de très visionnaire, mais on a été surpris par le degré d'acceptation dans les entreprises, qui voient là la fin du scripting et de tous ces soucis. Si on peut gérer ça dans notre structure en grille, ça va être très puissant.

Dirk Marichal, je vous remercie.
Microsoft vient de mettre sur pied une offensive légale pour s'attaquer aux arnaques visant son système de publicité en pay-per-clic. L'entreprise de Redmond a déposé deux plaintes contre ce qu'elle considère être une nouvelle forme de délit sophistiquée.

Microsoft a accusé cette semaine dans ses plaintes des éditeurs de sites web d'utiliser des pratiques de « blanchiment de clics. » Cette expression trouvée par l'entreprise inclut les formes de fraude traditionnelles, au cours desquelles des scripts automatiques ou des personnes génèrent de nombreux clics sur des publicités en ligne, mais qui, selon Microsoft, cachent une autre pratique : le schéma forcerait des clics sur des domaines réservés, et feraient croire qu'ils ont été effectués sur le site web des éditeurs.

Les plaintes de Microsoft visent le webzine scientifique et boutique en ligne - RedOrbit.com, et une dizaine de personnes anonymes. Ils sont accusés de gonfler artificiellement les taux de clic sur les publicités affichées par le site. « En générant frauduleusement un grand volume de clics invalides et en les faisant comptabiliser dans le réseau de publicité de Microsoft, les personnes visées ont tenté de faire du profit illégalement sur le dos des annonceurs, » estime l'une des plaintes. « Microsoft a dépensé de l'argent et des ressources importants pour enquêter et remédier aux effets de leur conduite, en remboursant les annonceurs pour les clics frauduleux générés sur le site RedOrbit.com. »

Pour le président de RedOrbit.com, Eric Ralls, la plainte est sans fondement, et son site ne s'est pas impliqué ni n'a assisté à une fraude au clic. Selon une étude de Click Forensics, qui collecte des données sur la question, environ 17% des clics étaient frauduleux au premier trimestre de l'année 2010. Soit une hausse de 14% par rapport à 2009. Selon Microsoft, RedOrbit a généré près de 75 clics par jour sur son réseau de publicité en 2008. Un chiffre que le système de fraude aurait permis de faire grimper à plus de 10 000 par jour en janvier et février 2009, selon la plainte.
La polémique et les interrogations enflent au sujet des Google cars et des informations qu'elles recueillent. Aussi bien en Europe mais également aux Etats-Unis des recours se multiplient afin que la firme désindexe ou efface certaines des données collectées. C'est notamment le cas d'une class-action (action collective) qui pourrait rassembler plusieurs millions de plaignants chez l'Oncle Sam.

Les données « sniffées » par Google semblent apporter nombre de déboires. Selon Computerworld, une action collective serait menée pour éviter que Google ne prélève des informations portant sur les réseaux WiFi. L'action en justice viserait à condamner la firme à « payer la somme de 10.000 dollars à chaque donnée illégalement enregistrée », estime la Cour. Le motif invoqué est la violation des lois fédérales portant sur la vie privée et le recueil de données.

Si Google a expliqué qu'il avait, depuis, arrêté de collecter ce type de données, le géant doit désormais montrer qu'il souhaite bien supprimer ces informations. Le premier coup de semonce est venu d'Allemagne où des associations ont voulu mettre ce débat sur la place publique.

Quelques jours plus tard, le blog officiel de la firme de Mountain View faisait état de données collectées « par erreur » en Irlande. Suite à des demandes de la part de l'Irish Data Protection Authority (la Cnil irlandaise) portant sur le retrait de données concernant encore une fois les adresses SSID et MAC, Google confiait alors être passé par une entreprise tierce, faisant foi de la suppression des informations.

Contactée par nos soins, la Cnil a, pour sa part, confirmé qu'« une enquête est actuellement en cours. Mais aucune autre information ne pourra être donnée, du fait de la confidentialité de l'enquête ». On peut donc estimer que Google fasse amende honorable en effaçant sur demande toutes les données contestées.

Si la firme n'a pas commenté l'action collective aux Etats-Unis, il faut croire que les conséquences en matière d'image de cet épisode auraient pu virer au désastre. Vaste collecteur de données, Big Brother, toutes ces critiques ont été formulées à l'encontre de celui dont le slogan est « Don't be evil »...
le 21/05/2010 à 22:27
Mozilla aussi veut son Web Store
Alors que Google vient d'annoncer l'ouverture prochaine d'une galerie d'applications web et de jeux en ligne, la fondation Mozilla semble vouloir proposer sa propre solution. A l'image de Chrome Web Store, qui se présentera sous la forme d'une page d'accueil par défaut, Mozilla explique : "les développeurs web montrent un intérêt pour un modèle de boutique pour le web leur permettant d'être payés pour leurs travaux".

Mozilla explique s'être penché sur le sujet et avoir dessiné les grandes lignes fondatrices. C'est ainsi que seules les applications hébergées écrites en HTML5, CSS et JavaScript ou basées sur d'autres standards devraient être acceptées, et ce, afin d'éviter tout problème d'interopérabilité. Par ailleurs le catalogue devrait être accessible depuis n'importe quel navigateur, y compris les terminaux mobiles. La "webothèque" de Mozilla ne se confinerait donc par simplement à Firefox.

A l'instar de la galerie des extensions, Mozilla entend également y faire figurer des opinions d'utilisateurs afin qu'il soit plus simple pour l'internaute d'évaluer la qualité d'une application. Enfin cette dernière devra bien entendu respecter la vie privé de l'utilisateur et être accessible à tous.

La fondation encourage la communauté à réfléchir sur le sujet et devrait probablement lancer un concours visant à recueillir toutes les bonnes idées. Bien entendu le lancement d'une galerie web pourrait également être un moyen pour Mozilla de récolter une commission sur les ventes d'applications en échange de visibilité. Pour l'heure l'accord avec Google reste la principale source de revenus de la fondation... Nul ne sait si les deux parties renouvelleront leur contrat après son expiration en 2011.
La bonne nouvelle, c'est que les geeks nostalgiques des années 80 vont pouvoir se délecter d'une séance régressive type dépoussiérage d'Atari 520 pour jouer à Gauntlet sur fond de Still Loving You (des Scorpions, donc), en étouffant quelques sanglots dans leur couette Star Trek. La mauvaise, c'est l'objet de ladite contrition : le premier serveur Usenet, qui avait vu le jour en 1980 à l'Université de Duke en Caroline du Nord (Etats-Unis) grâce à deux étudiants, Tom Truscott et Jim Ellis, vient de rendre l'âme. Crédits : Université Duke.

Cet UNIX User Network, annoncé à l'époque à la conférence Usenix, se voulait une alternative moins coûteuse au réseau Arpanet : « l'Arpanet du pauvre ». L'histoire se répète, et comme Cro-Magnon devint Sapiens Sapiens, Arpanet devint Internet, laissant les cousins néandertaliens du réseau Usenet s'intégrer - la totalité du trafic de Usenet est aujourd'hui fondu dans l'Internet - ou disparaître.

C'est donc surtout un symbole qui disparaît aujourd'hui avec le serveur de l'Université Duke, qui invoque pour justifier ce débranchement « un usage réduit et des coûts croissants ». L'Université souhaitait d'ailleurs mettre fin à ce service dès 2008. Heureusement, l'Université nous rappelle que la culture Usenet n'est pas morte. « De nombreux aspects de la communication en ligne - des émoticônes aux flame wars (guerres de commentaires), en passant par les acronymes et le LOL - ont existé ou sont devenus populaires grâce à Usenet. »

Rappelons pour notre culture que si Usenet est aujourd'hui connu comme source de fichiers binaires avec lesquels il faut jongler pour recréer un fichier de taille suffisante pour contenir une vidéo (libre) ou un logiciel (libre), Usenet fût aussi le terreau des forums et des newsgroups, ancêtres d'un bon nombre de méthodes de sur-communication utilisées à qui mieux-mieux par la génération des digital natives. Et pour encore plus de culture, terminez cet article, faites une ou deux parties de BombJack, et allez lire cet article en anglais sur l'histoire de Usenet.
le 21/05/2010 à 22:27
VP8 : un codec vidéo pas si ouvert ?
Mercredi dernier, Google annonçait vouloir distribuer en open source, le codec VP8, initialement édité par la société On2 Technologies. Couplé au codec audio Ogg Vorbis, le conteneur WebM se révèlerait être alors un format de qualité et libre de droits. Pourtant les choses ne se révèleraient pas aussi simples. En effet, le magazine AllThingsD rapporte que Larry Horn, PDG du groupe MPEG LA est en train de préparer un dossier de dépôt de plainte. Selon lui VP8 serait assujetti à des droits de propriété intellectuelle.

Finalement, si le groupe MPEG LA réussit à faire valoir ses droits, il se pourrait donc que l'adoption de VP8 soit aussi problématique que celle de H.264. En effet, cela impliquerait aux éditeurs de débourser plusieurs millions de dollars afin de pouvoir le proposer aux utilisateurs et empêcherait également la publication du code source. De son côté, Mike Jazayeri, chef produit chez Google expliquait, : "nous avons effectué une analyse très poussée de VP8 et de On2 Technologies avant l'acquisition et depuis nous connaissons très bien la technologie, c'est la raison pour laquelle nous la distribuons en open source".

Google a finalisé le rachat de la société On2 technologies au mois de janvier. Cette acquisition a été réalisée à plus de 106 millions de dollars. Le cadeau de Google à l'industrie du web serait-il empoisonné ?
LoadingChargement en cours