News

le 22/04/2010 à 23:33
Les tendances des langages
Le magazine 'cent.com' rapporte les propos d'une conférence effectuée à l'évènement 'Palmetto Open source conference' à Columbia.

Suite à une étude effectuée auprès des développeurs en place et des futurs développeurs, l'étude a montré un fort attrait pour les langages dynamiques Open Source comme PHP ou Ruby par rapport aux autres langages.

- Analyst: New developer demographics favor Linux, PHP
le 22/04/2010 à 23:33
eZ Components devient Zeta Components
L'éditeur eZ systems, qui réalise le CMS eZ Publish rebatise la partie eZ Components en Zeta Components.

EZ systems a décidé d'ouvrir plus largement ce projet à la communauté. Maintenant il rejoint les projets de la fondation Apache Software et sera distribué sous licence Apache.

Par ailleurs, l'ensemble des fonctionnalités de ce framework est déjà disponible.

- Proposal: Zeta Components
La fondation Mozilla a mis en ligne mardi la première mouture bêta du futur Firefox 3.6.4. Principale nouveauté : l'intégration en standard de Lorentz, un outil qui permet d'assurer le bon fonctionnement du navigateur lorsqu'un composant logiciel tiers installé sous la forme d'un plugin vient à planter. Cette fonctionnalité n'est pour l'instant prise en charge que sous Windows et Linux.

Pour l'instant, trois plugins sont isolés de façon à ce que leur interruption ne compromette pas l'ensemble des onglets ouverts dans le navigateur : Flash, QuickTime et Silverlight. Si l'un d'eux vient à cesser de fonctionner, l'utilisateur aura la possibilité d'envoyer un rapport d'erreur depuis l'onglet affiché, avant de fermer ou de recharger ce dernier. Egalement étudié chez Google (Chrome) et Microsoft (Internet Explorer), ce dispositif d'isolation des processus vise évidemment à garantir une meilleure stabilité du navigateur.

Firefox 3.6.4 bêta 1 est par ailleurs l'occasion de corriger quelque 170 bugs et dysfonctionnements divers. Cette première bêta, proposée pour Windows, Mac et Linux, sera théoriquement suivie d'une seconde dans une semaine, avant sortie de la version définitive aux alentours du 4 mai. Les internautes qui avaient déjà installé Lorentz devraient se voir proposer la migration vers Firefox 3.6.4 bêta 1 de façon automatique. Les autres pourront le télécharger, à des fins de test uniquement, via ce lien.
Pour le deuxième trimestre de son exercice fiscal 2010, clos au 27 mars dernier, Apple a annoncé mardi soir avoir réalisé un chiffre d'affaires de 13,50 milliards de dollars, assorti d'un bénéfice net de 3,07 milliards de dollars, ou 3,33 dollars par action diluée.

Un nouveau record pour la firme de Cupertino, qui dit n'avoir jamais enregistré de tels résultats en dehors du quatrième trimestre calendaire, traditionnellement porté par les fêtes de fin d'année. Un an plus tôt, Apple revendiquait un chiffre d'affaires de 9,08 milliards ainsi qu'un bénéfice net à 1,62 milliard de dollars.

Apple, dont 58% des ventes ont été réalisées à l'international, indique avoir écoulé sur la période 2,94 millions d'ordinateurs Mac (+33% sur un an), 8,75 millions de téléphones iPhone (+131%) ainsi que 10,89 millions de baladeurs iPod (-1%).

« Nous sommes ravis d'annoncer le meilleur trimestre, hors fêtes de fin d'année, jamais réalisé, avec des revenus en hausse de 49% et des profits qui progressent de 90% », s'est félicité Steve Jobs, patron d'Apple, dans un communiqué. « Nous avons lancé notre nouvelle et révolutionnaire iPad, que les utilisateurs adorent, et nous avons encore quelques produits extraordinaires dans les tuyaux pour cette année ».

Forte de ces résultats, la firme de Cupertino dit maintenant s'attendre à un chiffre d'affaires compris entre 13 et 13,04 milliards de dollars pour la période en cours, avec un bénéfice par action compris entre 2,28 et 2,39 dollars.
Dernièrement sur son blog, Google rappelait sa position concernant la censure sur Internet et exposait également son souci de transparence auprès des internautes, en les informant, lors de leurs recherches, de la potentielle suppression de résultats sur demande gouvernementale.

Aujourd'hui, le géant de Mountain View va encore plus loin, et publie une carte des requêtes gouvernementales. Basée sur Google Maps, cette carte permet d'afficher le nombre de demandes de données (généralement des informations concernant des utilisateurs de services Google), ainsi que le nombre de demandes de suppression de contenu sur les différents services du moteur de recherche.

Sur le blog du moteur, David Drummond, le vice-président du développement corporatif et le chef des affaires juridiques, explique le fonctionnement de cette page : « Pour le lancement, nous utilisons les données de juillet à décembre 2009, et nous prévoyons de les mettre à jour tous les 6 mois. », et ajoute « Nous croyons qu'une plus grande transparence permettra de réduire la censure. »

Néanmoins, Google explique dans la FAQ de sa page que les chiffres présentés ne reflètent pas totalement la réalité, en raison de la complexité de certaines demandes, et regrette également de ne pas pouvoir fournir, pour le moment, d'informations plus précises concernant l'acceptation et la contestation des requêtes. « Nous n'avons pas encore trouvé le moyen de fournir plus de détails au sujet de notre conformité avec les demandes de données utilisateurs de façon utile, mais nous l'envisageons à l'avenir. ». Les pays ayant fait moins de 30 demandes d'informations durant le second semestre 2009 n'apparaissent également pas dans la liste.

Les chiffres se révèlent cependant intéressants, et laissent apparaître la France dans le top 5 des pays les plus demandeurs d'informations au moteur de recherche, tandis que le Brésil est annoncé premier aussi bien concernant les demandes que les suppressions : « Pour le Brésil et l'Inde, les demandes des gouvernements pour supprimer du contenu sont plus élevées par rapport à d'autres pays en partie en raison de la popularité de notre réseau social Orkut. La majorité des demandes indiennes et brésiliennes pour le retrait de contenu sur Orkut ont trait à l'usurpation d'identité présumée ou la diffamation. »

Pour la Chine, un point d'interrogation rouge est affiché sur la carte, ce qui relève presque du clin d'oeil vu la situation. Mais le moteur explique que « les autorités chinoises considèrent comme secrets d'Etat les demandes de censure. » par conséquent, Google a interdiction de divulguer le moindre chiffre concernant le pays.

Il ne reste plus qu'à attendre une actualisation des données, qui devrait arriver en toute logique cet été, pour connaître l'évolution de la tendance en 2010.
ISAI "pour Internet Savvy & Active Investors" est un nouveau fonds regroupant une soixantaine d'investisseurs du web pour aider au décollage d'entreprises spécialisées dans l'Internet. « Spécialisées uniquement dans l'Internet », précise d'emblée le Président exécutif, Jean-David Chamboredon, « mais dans tout l'Internet : de l'open-source à la mobilité. »

Au départ, un constat : il y aurait un equity gap dans le domaine de l'investissement vers les entreprises. Pierre Kosciusko-Morizet, l'un des fondateurs d'ISAI, explique : « Jusqu'à 500 000 euros, il n'y a pas trop de souci. Une entreprise peut facilement trouver des sommes de l'ordre de 100 à 300 000 euros pour monter sa structure. Pour des sociétés avec un business établi, il est relativement aisé de trouver des sommes beaucoup plus importantes : 1,5 million et plus. » Mais c'est entre les deux qu'un manque se ferait sentir. « Souvent, les fonds d'investissement annoncent qu'ils font vraiment du capital-risque, mais ce n'est généralement pas vrai. »

C'est cet equity gap qu'ISAI qui signifie différent, remarquable ou prodigieux en japonais, autant se placer sous une bonne étoile entend combler pour faire émerger de nouveaux acteurs de l'Internet français. Le fonds est dirigé par un couple exécutif complémentaire, avec Jean-David Chamboredon, capital-investisseur, et Christophe Raynaud, le directeur général, issu du monde des business angels. Ils entendent profiter de l'expérience des soixante entrepreneurs qui ont souscrit : « des dirigeants fondateurs ou ancien dirigeants de 45 entreprises qui ont réussi sur Internet » : des PDG, mais aussi des directeurs de la technologie, des directeurs financiers et des directeurs marketing. « Le but est d'investir de l'argent, mais aussi des compétences. Nous couvrons un large spectre de l'activité Internet, qui nous permet d'être pointu sur chaque dossier parmi les 300 que nous recevons chaque trimestre. » Objectif d'investissement : un par trimestre, dont un à deux avant l'été.

Côté investissements, ISAI a 24 millions d'euros de fonds aujourd'hui, avec un objectif après le prochain closing de 25 à 30 millions. « C'est la bonne taille », selon Jean-David Chamboredon. Les entreprises visées doivent avoir fait « la preuve du concept. » Le Président exécutif détaille les trois critères : un concept déjà lancé, avec un business « frémissant », une équipe en place solide, et la question économique. « Nous investirons dans des entreprises qui ont besoin de 5 à 10 millions de capitaux. Nous apporterons 2 à 3 millions, pour être un gros minoritaire, décisif. »
Eric Delcroix est formateur et consultant sur le web et les nouvelles technologies depuis 1998. Spécialiste des réseaux, il est également professionnel associé au sein de l'Université Lille 3, et est spécialiste des réseaux sociaux. Il a notamment écrit deux livres : Flickr, on s'y retrouve et Facebook, on s'y retrouve. Intervenant dans la conférence sur l'avenir du net dans le cadre du Forum international sur la cybercriminalité de Lille, il a accepté de répondre à nos questions après une conférence assez pessimiste.

Bonjour, Eric Delcroix. Une conférence d'une heure et demie pour expliquer ce que sera le web 3, l'Internet des objets, n'était-ce pas un peu ambitieux ?

C'est vrai qu'on a à peine le temps de survoler le sujet en si peu de temps. Mais de toute façon, pour prendre le web 3 au sens sémantique, c'est une utopie complète. C'est vrai que les gens qui sont dans les sciences de l'information, c'est leur tasse de thé. Ils nous baratinent tous les jours avec le web 3, parce que c'est une utilisation qui correspond très bien au métier de documentaliste. Mais le commun des mortels n'en voit pas l'intérêt, et les outils ne sont pas du tout adaptés. Encore aujourd'hui, les moteurs de recherche sont loin de faire des recherches sémantique. Google ne l'évoque même pas.

80% du web sinon plus est inaccessible pour la plupart des gens. Mais qui s'y intéresse ? Beaucoup de chercheurs, d'hyperspécialistes, qui ont des méthodes pour entrer dans cette face cachée de l'information dans leur domaine d'activité. Il y a des bases de données spécifiques, payantes, qui fonctionnent. Il y a donc un recloisonnement. De toute manière, même en envisageant qu'on puisse avoir très facilement accès à des thèses ou des documents universitaires, qui saurait le lire ? C'est un langage incompréhensible pour la plupart des gens. On connait des universitaires qui publient des articles dans la presse scientifique, et qui sont obligés de les traduire pour les mettre dans leur blog.

Alors c'est vrai qu'il existe le risque de voir une élite se créer. Mais ça a toujours été comme ça. On s'en aperçoit parce qu'on est sur Internet, et il y a une forme de prise de pouvoir. Mais avant, ça ne choquait pas. Le pouvoir des journalistes par exemple, n'a jamais choqué. Le pouvoir des maîtres d'école au XIXe était important. Maintenant, qu'est-ce qu'il représente ? Ce sont des phases dans la société.

La conférence a donné un avant-goût assez dramatique du futur d'Internet... Vous partagez ce point de vue ?

C'est vrai que quand on parle de puces communicantes, ou de traçage, on peut avoir peur. Mais ça a toujours été le cas. Quand le téléphone portable est arrivé dans les années 90, avec d'autres enseignants, on se moquait des jeunes qui en avaient un, en disant que c'était la 2CV du moment. Aujourd'hui, c'est rare que quelqu'un n'en ait pas. Si on prend les choses qui vont arriver, comme la géolocalisation, l'évolution est flagrante : il y a moins d'un an, on a refusé que le téléphone soit localisé en France, officiellement. Aujourd'hui, avec Foursquare par exemple, les gens se géolocalisent d'eux-même. Il faut donc faire un distinguo entre ce qui est réellement dangereux pour les gens, pour leur liberté, et ce qui peut être accepté. Si les gens trouvent une utilité à une technologie, ils vont l'adopter sans faire attention à cette notion de liberté.

De toute façon, on voit bien qu'il y a un discours très alarmiste, qui défend les idéaux nationaux. Mais si on voulait réellement garder la main-mise sur des systèmes, il fallait réussir à vendre le minitel à l'étranger. On aurait eu un système français partout dans le monde et on serait les rois. Pas de chance pour nous, ça ne s'est pas passé comme ça, donc je crois qu'il faut arrêter de se focaliser sur les dangers d'Internet parce que ça vient des Etats-Unis, le droit qui n'existe soit-disant pas, etc. Alors que l'homme de la rue n'en a rien à faire de savoir si le site est aux Etats-Unis ou en France. Après, quand Louis Pouzin vient dire qu'Internet n'a pas bougé depuis 1983, c'est vrai. La crainte qui ressort régulièrement, c'est que les tuyaux ne seront pas assez gros. On sait que le système n'est pas le meilleur, mais pour l'instant on n'en a pas trouvé d'autre. Cela dit, ça fait plus de dix ans que j'entends parler de cette histoire de tuyaux. Et pour l'instant, il y a toujours une nouvelle technique qui fait que les tuyaux restent assez gros et que ça passe.

Et à côté de cet immobilisme de l'infrastructure Internet, il y a le web qui évolue très vite...

Bien sûr, à mon avis ça va évoluer par des changements matériels. Ca fait plusieurs années que je dis que les ordinateurs n'auront plus de disque dur. Ca va devenir un écran. Donc du moment qu'on aura un écran, on peut imaginer qu'on aura un ordinateur. Les premières choses qu'on connait, ce sont l'écran de télévision, dont on est à peu près sûr que ça va devenir un ordinateur, les cadres numériques, qui peuvent devenir des ordinateurs. N'importe quelle surface peut devenir un écran, nous permettons d'être constamment connectés. Avec le risque d'être systématiquement plongé dans le côté marketing d'Internet. Microsoft, il y a cinq ou six ans, avait participé à un livre sur le travail dans le web 2. Ca fait déjà plusieurs années qu'ils y travaillent. Adobe travaille sur des solutions de réunions en ligne... Il ne faut pas se faire d'illusions, ce sont eux les grands acteurs qui resteront au final. Ils sont une petite dizaine à être dessus, et ce sont eux qui vont manipuler tout comme ils en ont envie. Je suis persuadé qu'Apple préparait déjà l'iPad depuis 3 ou 4 ans. Je pense qu'Apple avait déjà essayé avec son MacBook Air de sortir un ordinateur sur lequel on était à la transition, avec la fin du disque dur, etc. Ca s'est mal passé parce que les gens réclamaient leur disque dur, Apple a attendu deux ans de plus et a sorti l'iPad cette année. Si les entreprises et le grand public trouvent leur compte, une technologie fonctionne.

Twitter, Foursquare*, vont donc connaître le sort de SecondLife ?

Si on imagine les ordinateurs du futur, on voit que pour y entrer, il faudra passer par un système d'exploitation, c'est inévitable. Le seul qui s'est déclaré en tant que système d'exploitation pour l'instant, c'est Facebook. Et effectivement, quand on voit son architecture, ça ressemble beaucoup à un OS du net. J'ai toujours dit que ce serait Facebook ou un autre équivalent. Google essaie aussi de se placer. Ensuite, une fois sur le net, on trouvera les applications. Microsoft a déjà très bien réfléchi à ses solutions logicielles qui seront en ligne, Adobe a déjà commencé avec les versions de Photoshop sur le web... Donc ils sont tous prêts à basculer dans le deuxième monde.

Après, il faudra regarder du côté de la société du gratuit, qui vient du libre à l'origine. Il y a plusieurs théories qui considèrent qu'aujourd'hui on ne peut plus avoir d'existence en tant que société si on ne donne pas quelque chose de gratuit avant de passer à du payant. Le premier réflexe des gens, c'est de se dire que ça ne marche pas le modèle gratuit. Par exemple, l'inventeur de Linux ne s'est jamais fait un centime avec. Par contre, il s'est fait beaucoup d'argent à côté, donc à mon avis le modèle gratuit peut exister.

En dehors des considérations de gratuité, est-ce qu'il y a de la place pour le monde du libre dans ce futur, comme Canonical, qui semble prêt cette fois avec son cloud ?

Bien sûr. Je me dis par exemple que la démarche d'OpenOffice peut-être très marketing. Rien n'empêche à OpenOffice de proposer du libre pendant un certain nombre d'années, puis de décider de récupérer le noyau. Qu'est-ce qui se passerait ? Ca pourrait devenir payant. Ca peut devenir une démarche comme une autre, qui serait scandaleuse quelque part, ou considérée comme scandaleuse, mais ça s'était passé avec Mambo et son fork Joomla.

Et d'un autre côté, on voit le développement d'un modèle économique des services. Ca existe depuis longtemps avec SugarCRM par exemple. Si on le récupère et qu'on est une petite structure, on sera incapable de le configurer, à moins d'avoir un informaticien béton. Donc se développent des sociétés de services à côté. On a cette notion de service qui apparaît, mais il y a bien la gratuité à la base. On peut très bien tester SugarCRM si on veut. Il n'y a pas trop de monde qui y fait attention, mais à mon avis c'est une direction qu'on risque de prendre quant à l'évolution d'Internet pendant quelques années.

Eric Delcroix, je vous remercie.

(*) Service de micro-blogging avec un système de géolocalisation des messages intégré.
C'est peut-être un premier pas vers une intégration européenne plus poussée en matière numérique. La Commission européenne vient de dévoiler son plan pour acter le Programme de Stockholm sur la coopération policière et judiciaire, adopté en décembre dernier par les chefs d'Etats et de gouvernements de l'Union.

Le sujet du Programme de Stockholm est vaste, du droit d'asile à l'administration des mariages internationaux, une grande partie est consacrée à la sécurité des données numériques. En décembre 2009, le vote du Conseil européen (qui regroupe les chefs d'Etats et de gouvernements) a donné à la Commission la charge de renforcer la législation.

Premier objectif de la Commission : la protection des données, notamment par le biais d'un accord avec les Etats-Unis pour délimiter les champs de transmission de données personnelles entre USA et UE dans le cadre judiciaire (la Commission précise que les échanges dans le cadre commercial ne seront pas concernés par le plan). La Directive sur la protection des données devrait également être revue avant la fin de l'année. La volonté est d'appliquer des principes uniques au sein de l'Union face aux « dernières évolutions technologiques et pour intégrer de façon cohérente les instruments de protection des données existants. »

De même, les personnes accusées de crime numérique devraient bénéficier d'une meilleure protection de leurs droits. La Commission souhaite d'ailleurs faire du vol d'identité en ligne un crime, estimant que « c'est l'un des crimes avec la plus forte croissance dans le monde, indubitablement lié à la criminalité organisée, et qui touche les gouvernements, les entreprises et les citoyens. » Une législation européenne pourrait être proposée en 2012 pour uniformiser les règles dans ce sens. Une directive relative aux attaques informatiques à grande échelle qui proviennent de l'Union européenne ou la ciblent pourrait également voir le jour d'ici la fin de l'année 2010.

L'intégralité du plan annoncé est disponible sur le site de l'Union européenne en anglais.
Après une mobilisation de certains eurodéputés (notamment Sandrine Bélier, Europe Ecologie) mais aussi d'association et d'internautes, l'ACTA a accepté de diffuser les premières décisions issues des débats entre Etats. Pour rappel, les Etats-Unis, le Canada, la Nouvelle-Zélande, l'Australie, Singapour, la Corée du Sud, le Maroc, le Mexique et la Suisse mais aussi l'Union européenne participent aux négociations. Morceaux choisis.

Le traité consolidé de l'ACTA part du principe qu'il constitue un socle commun en matière de régulation. Chaque Etat se réserve donc le droit d'instaurer le type de contrôle qu'il souhaite (article 1.2.1). Pour autant, "toute partie est en droit d'instaurer une protection plus importante de la propriété intellectuelle", un pays peut donc choisir des mesures plus lourdes que celles prévues par le traité.

Sur certains points, l'ACTA se trouve même moins contraignante que les premières version de l'Hadopi puisque sous son article 2.1, le traité instaure un "recours à une autorité judiciaire doit être prévu afin de prévenir toute infraction à la propriété intellectuelle ou pour ordonner le retrait de biens interdits hors des réseau de commerce". Le recours au juge est donc obligatoire. Pour autant, le texte cache encore quelques items secrets.

En cas de procédure de dédommagement des ayant-droits, l'ACTA prévoit de mesurer le cout de l'infraction avec quelques notions comme le fait d'inclure les profits perdus par l'ayant-droit, la valeur du produit ou du service contrefait, le prix du marché neuf et occasion (article 2.2.1.b). Le texte va même plus loin en estimant que le montant de ces dommages peut être préétabli. Une solution de bon sens qui ne vaut seulement si ces montants sont réévalués très fréquemment et suivent l'évolution du marché.

Autre information, l'ACTA est désormais "Hadopi conforme" puisqu'elle confère au juge le droit d'exiger d'un FAI des informations en cas de preuve d'infraction à la propriété intellectuelle. De même, lorsque le commerce de bien contrefaits et piratés est du ressort criminel (commerce) l'article 2.16.B instille une petite polémique dans le sens où chaque autorité compétente peut donner des informations afin d'identifier plus facilement les produits contrefaits. Un article qui signe le retour en force des DRM ?

Par contre, le traité oblige les parties signataires à stopper l'échange de biens contrefaits et notamment piratés, (article 2.7). On peut donc penser qu'une action commune pourrait être menée entre les différents Etats.

Enfin, la section 4 s'attaque frontalement à l'environnement digital. L'ACTA taille dans le vif car il reconnaît qu'une "certaine incertitude légale portant sur l'application des droits de propriété numérique crée des barrières provoquant une diminution du développement économique, notamment du commerce électronique". Il invite également les FAI à mettre en place des processus d'automatisation des traçages de produits contrefaits. Même tarif pour les hébergeurs qui sont vivement encouragés à mettre sur pied des politiques de contrôle des contenus illégaux en n'autorisant pas le stockage de contenus dotés de droits protégés.

La Quadrature du Net avait donc vu juste. L'association avait eu vent de fuites qui expliquaient clairement que les Etats souhaitaient adopter un politique d'entente commune autour de la protection des droits. Pour autant, même si rien ne ressemble encore à une riposte graduée mondiale, on est en droit de se douter que les articles ont le même gout et la même odeur que notre Hadopi.
le 21/04/2010 à 23:14
Le W3C adopte le Web Open Font Format
Le World wide web consortium (W3C, un organisme de standardisation des technologies du web), a adopté le Web Open Font Format (Woff). Ce format de police, déjà soutenu par la fondation Mozilla et plusieurs entreprises de typographie, pourrait donc rapidement être accepté comme un standard pour le web.

Les formats de police pour le web sont au coeur d'un épineux problème : pour avoir une utilité, et ne pas être remplacés par les formats les plus courants, ils doivent être lisibles sur toutes les machines du monde. Cela explique le nombre limité de polices utilisées sur le web, les éditeurs se limitant à celles très largement diffusées, comme les Arial, Verdana, Helvetica ou Times New Roman. Les standards CSS permettent de spécifier un format de police à utiliser, mais encore faut-il que celui-ci réponde à certaines exigences : gérer la génération de sous-ensembles, la compression, et l'intégration des licences. Il doit également être compatible avec les polices existantes, pour une adaptation facile des textes entre les formats. Des fonctionnalités prises en charge par le Woff.

Le Woff est né de la fusion de deux projets : Zot, développé par Mozilla, et .webfont, créé par des typographes. Mais aucun consensus n'est jamais parvenu à émerger dans l'industrie, Safari et Mozilla soutenant les formats OpenType, et Internet Explorer gérant une invention de Microsoft appelée Embedded OpenType, un sous-ensemble recompressé du premier. Woff pourrait bien changer la donne, puisque Mozilla le soutient, mais également Microsoft. Le géant a appuyé la volonté de standardiser le Woff. L'acceptation du format par le W3C devrait maintenant amener le récent groupe de travail sur les polices web (WFWG) à affiner ses spécifications, et à développer une recommandation formelle. Le Woff pourrait ensuite monter en puissance, notamment grâce au soutien de Microsoft et Mozilla, puisque leurs navigateurs occupent à eux deux plus de 85% du marché mondial, selon NetApplications.

Rien n'a été annoncé pour Chrome, Opera et Safari, mais des discussions sur Webkit et le projet Chromium ont fait état de la nouveauté.
LoadingChargement en cours