News

Alors que le Sénat vient de publier la dernière version en date de la loi "Création et Internet", accessible en ligne via ce lien, un sondage réalisé par l'Ifop pour le compte du Journal du Dimanche révèle mercredi que 60% des sondés se disent défavorables au dispositif de riposte graduée défendu par le gouvernement.

Les nombreuses réactions suscitées par le texte sur le Web en général et parmi vos très nombreux commentaires de nos lecteurs suffisaient jusqu'ici à montrer que le projet Hadopi ne recueille qu'un assentiment très modéré parmi la population des technophiles. Il semblerait finalement qu'il en aille de même pour le commun des internautes.

Réalisé auprès de 1004 internautes entre les 6 et 8 avril, le sondage de l'Ifop indique en effet que 33% des sondés se disent « plutôt favorables » ou « tout à fait favorables » à la riposte graduée. 18% expriment l'opinion « plutôt pas favorables », et 42% votent « pas du tout favorables ». Parmi les sympathisants UMP, 46% approuvent alors que 51% rejettent la riposte graduée. Toutes gauches confondues, l'opposition à ce dispositif monte à 69%.

Sur l'ensemble des internautes interrogés, 24% estiment que le dispositif se révèlera efficace, tandis que 69% estiment qu'il ne le sera pas. Parmi ceux qui admettent pratiquer le téléchargement illégal, la proportion de ceux qui pensent que la riposte graduée ne portera pas ses fruits montera à 80%. Endurcis dans le crime, sauraient-ils déjà parfaitement vers quelles autres sources d'approvisionnement se tourner ? On pourra consulter le détail de cette étude via ce lien (PDF).

Rappelons que la commission mixte paritaire, chargée d'harmoniser la future loi entre les deux versions du texte successivement votées par le Sénat, puis par l'Assemblée, est revenue sur un certain nombre de mesures votées début avril par les députés, à commencer par celle qui préconisait que l'abonné suspendu ne paie pas la part correspondant à l'accès à Internet de son abonnement triple play.
Alors que Microsoft vient de publier son rapport de sécurité semestriel, hier, le général Kevin Chilton, à la tête de la division stratégique de l'Air Force, annonçait que ces six derniers mois, le département de la défense américaine avait investi 100 millions de dollars afin de réparer ou sécuriser l'infrastructure informatique du Pentagone.

Selon le général de brigade John Davis, cette somme aurait permis de recruter de nouveaux spécialistes, de mettre à jour tous les systèmes et d'embaucher des experts enquêtant sur d'éventuelles failles de sécurité. Aucune information n'a été communiquée concernant la part de ces 100 millions de dollars allouée à réparer les dommages causés par des attaques externes.

Selon les autorités, les serveurs du Pentagone seraient analysés et scannés plusieurs millions de fois chaque jour par des intrus souhaitant y pénétrer. L'année dernière, 1500 machines ont été déconnectées du système à cause d'une cyber attaque. Aussi, en automne dernier, un virus aurait été malencontreusement introduit via une simple clé USB.Le département du Pentagone fut la cible de plusieurs attaques perpétrées en dehors de la nation. Le hacker anglais Gary McKinnon fut reconnu coupable d'avoir piraté 97 ordinateurs des forces militaires américaines entre 2001 et 2002. Parmi les organisations gouvernementales affectées par ce piratage, notons l'Armée US, la Navy, l'Air Force, le département de la Défense ou encore la NASA. Les dommages causés par les attaques du hacker britannique ont été estimées à 700 000 dollars. Le mois dernier, l'étudiant roumain Eduard Lucian Mandru a été arrêté pour avoir aussi pénétré au sein du réseau informatique du Pentagone. Les autorités annoncèrent des dégâts de l'ordre de 35 000 dollars. Les deux hackers seraient sur le point d'être extradés puis jugés sur le sol des Etats-Unis.
Ce matin, Microsoft a dévoilé son nouveau rapport de sécurité semestriel couvrant la période de juillet à décembre 2008. Les chiffres publiés dans ce sixième volume ont été collectés à partir des différents outils de sécurité de la firme, à savoir Windows Defender, Safety Scanner, Windows Live Care, Exchange Hosted Services ou encore MSRT (l'outil de suppression des logiciels malveillants). Microsoft constate une baisse des vulnérabilités, une évolution des menaces mais aussi une proportion croissante des attaques ciblant le logiciel plutôt que le système d'exploitation.

Depuis le premier semestre de l'année 2007, le nombre global de vulnérabilités tend à diminuer. Cependant, les experts observent un taux plus fort des menaces jugées particulièrement sévères ainsi que des failles facilement exploitables. Ces dernières représenteraient 56% de l'ensemble des menaces.

Bernard Ourghanlian, directeur technique et sécurité chez Microsoft France, explique que les hackers s'en prennent de moins au moins aux systèmes d'exploitation, ceux-ci étant de mieux en mieux protégés. Aujourd'hui, les principales cibles d'attaques seraient donc les logiciels (à plus de 90%, dont 4,5% pour les navigateurs).Les vulnérabilités au second semestre 2008Augmentation des scareware

Parmi les nouvelles menaces, notons les scareware, de faux logiciels de sécurité imitant des programmes légitimes. Installé sur la machine de la victime, le scareware analysera le disque dur en y installant un logiciel espion ou invitera l'internaute à procéder à un transfert d'argent afin de permettre le nettoyage d'une fausse infection. "Ces logiciels peuvent être très convaincants", affirme M. Ourghanlian "même si la plupart d'entre eux sont en anglais, il n'y a pas de barrière de langue, les gens cliquent parce que ça fait peur ". Dans le top 25 des familles de malware, 7 d'entre eux avaient un lien avec les scareware ; il s'agissait d'ailleurs, d'une des menaces les plus répandues au second semestre de l'année dernière.

Parmi les chevaux de Troie se propageant via les faux logiciels de sécurité fin 2008, Win32/Renos aurait infecté 4,4 millions d'ordinateurs distincts, ce qui représenterait une augmentation de plus de 66% par rapport au premier semestre de la même année.Nombre de machines nettoyées pour chaque millier d'exécution du MSRTLes pertes de données

Il est estimé que 50% des brèches de sécurité signalées en 2008 provenaient des pertes ou des vols de matériels. En Angleterre par exemple, plusieurs organisations gouvernementales ont été confrontées à ce problème. "La moitié des citoyens anglais ont des données personnelles qui se baladent dans la nature", déclare Bernard Ourghanlian. L'expert précise aussi que dans certains pays, toutes les firmes ayant été victime de pertes ou de vols de matériels doivent impérativement le signaler à l'Open Security Forum ; une mesure qui n'est pas encore applicable sur le territoire français.Exploitation des formats de fichiers

La suite bureautique Microsoft Office ainsi que le lecteur de fichiers PDF Adobe Reader sont des logiciels privilégiés pour les hackers souhaitant tirer parti d'une faille de sécurité. Si la suite Office 2007 semble pour l'instant épargnée, les versions précédentes non mises à jours restent vulnérables. Au travers de ce rapport, Microsoft annonce que 91,3% des attaques tentaient d'exploiter une même brèche pour laquelle un correctif avait été distribué deux ans auparavant. Entre les mois de juin et juillet 2008, les attaques sur les fichiers PDF auraient augmenté de manière considérable, pour doubler chaque mois par la suite. Ces attaques se focalisaient sur deux vulnérabilités présentes au sein d'anciennes versions des produits d'Adobe. Attaques par niveau de mise à jour pour Office 2003, XP et 2000, parmi les ordinateurs infectés, 2é semestre 2008 Géographie des menaces

Les pays où le taux d'infection est le plus élevé sont la Serbie Monténégro (77 ordinateurs infectés sur 1000), la Russie (21,1/1000) ou encore le Brésil (20,9/1000). En revanche, le Vietnam (1,3/1000), les Philippines (1,4/1000) ou le Japon (1,7/1000) sont relativement bien sécurisés. « Par le passé, l'on pouvait dresser une relation entre les pays en voie de développement moins protégés et le taux d'infection des ordinateurs. Aujourd'hui c'est moins vrai, il y a des phénomènes liés à la crise et une professionnalisation des hackers", explique Bernard Ourghanlian avant d'ajouter : "Conficker, par exemple est un ver très sophistiqué".

Avec 7,8 machines infectées sur 1000, la France est légèrement au-dessous de la moyenne mondiale (8,6/1000). Les chevaux de Troie et les logiciels espions restent les principales sources d'attaque. Plus précisément, les cinq menaces arrivant en tête du classement français sont : Win32/SpywareSecure, Win32/ZangoSearchAssistant, Win32/Hotbar, Win32/MessegerSkinner et FakeSecSen.

Pour de plus amples informations, retrouvez ce rapport en détails ici.
La Release Candidate approchant à grands pas, les ingénieurs travaillant sur Windows 7 ont récemment apporté d'intéressants détails sur le processus de mise à jour du successeur de Windows Vista. Des millions d'utilisateurs qui auraient d'après Microsoft installé la Beta, une part importante l'utilisent au quotidien. Tous fournissent spontanément ou par le biais du système de télémétrie de précieuses informations aux concepteurs du système d'exploitation.

Microsoft encouragera vivement ses millions de testeurs à repasser par Windows Vista avant d'installer la Release Candidate de Windows 7. En dépit du soutient qu'ils leur apportent, Microsoft incitera donc ses testeurs à réaliser une opération contraignante, puisque aucune solution simple n'existe pour rétrograder sur une précédente génération de Windows. Car contrairement aux testeurs chevronnés de la première heure, les consommateurs finaux se passeront volontiers de fastidieuses étapes de sauvegardes et de transferts. Le processus de mise à niveau de Windows Vista à Windows 7 est donc un point critique pour la firme de Redmond, qui souhaite par conséquent recueillir un maximum de retours.

Les ingénieurs tempèrent en rappelant l'existence de l'outil de transfert de fichiers et de paramètres Windows. Conscient que ses testeurs bénévoles pourraient malgré tout se vexer face à de telles contraintes, Microsoft explique comment tromper l'installeur de la future RC pour pouvoir mettre à jour la Beta, non sans les mettre en garde contre les risques encourus.

La mise à jour depuis Windows XP, en raison d'un trop grand nombre de changements (support matériel, pilotes), sera quant à elle belle et bien impossible. Certains paramètres et documents seront conservés, mais les applications devront être réinstallées.

Les mêmes complications seront vraisemblablement d'actualité pour la mise à jour de Windows 7 RC vers la RTM (Release To Manufacturing).
Réunie mardi soir, la commission mixte paritaire a opéré quelques modifications au projet de loi "Création et Internet". Elle est notamment revenue sur un amendement voté à l'Assemblée, qui visait à protéger l'abonné à Internet de la "double peine" en l'exonérant des frais liés à sa ligne Internet durant la suspension de cette dernière.

Composée à majorité de parlementaires favorables au projet de loi soutenu par le gouvernement, la commission mixte paritaire a sans surprise conservé l'essence du texte et le principe de riposte graduée. Objectif, pour ce collège de sept sénateurs et sept députés : harmoniser la future loi autour des deux versions du texte successivement votées par le Sénat, puis par l'Assemblée.

A l'Assemblée, il avait notamment été décidé que l'abonné ne paierait pas la part correspondant à l'accès à Internet de son abonnement triple play. L'amendement concerné a finalement été rejeté par la CMP, au motif qu'il faisait « porter aux fournisseurs d'accès internet le préjudice d'une sanction prononcée contre l'un de ses abonnés », selon le sénateur UMP Michel Thiollière.

Les FAI devraient apprécier, puisqu'ils n'auront pas à dévoiler la ventilation tarifaire entre les trois prestations que sont accès au Net, téléphonie et TV sur IP. Cette décision donnera toutefois lieu à un recours auprès du Conseil constitutionnel, ont prévenu certains députés de l'opposition, dans la mesure où elle suppose une double peine pour l'abonné.

La CMP a par ailleurs évincé définitivement la possibilité de restreindre les débits de l'abonné plutôt que de prononcer une suspension. D'autre part, il ne devrait finalement pas y avoir d'amnistie pour les internautes poursuivis pour téléchargement illégal avant l'entrée en vigueur de la loi.

Pour le reste, les principales mesures du texte, y compris les plus controversées d'entre elles, sont conservées. La Hadopi sanctionnera donc les internautes convaincus de ne pas avoir correctement sécurisé leur ligne contre le téléchargement illégal et ce bien que l'outil nécessaire n'ait pas encore été défini.

Le texte sera maintenant présenté pour ratification devant l'Assemblée nationale jeudi 9 avril, avant une probable saisine du conseil constitutionnel. Nous reviendrons bien sûr sur le sujet.
A l'issue d'une réunion avec les opérateurs, mardi, Nathalie Kosciusko-Morizet et Jean-Claude Mallet ont précisé l'état d'avancement du déploiement de la fibre optique en France. Le très haut débit chez vous, hors exceptions, ça n'est pas pour demain !"On est sur un truc qui va durer minimum 10 ans. N'oubliez pas que les expérimentations ont commencé en janvier 2009 et que nous ne sommes qu'en avril", a déclaré Jean-Claude Mallet, président de l'Autorité de régulation des communications électroniques et des postes (Arcep), lors d'un point presse à l'Hôtel de Broglie, Paris.

Au 31 décembre 2008, d'après les chiffres communiqués ce jour par le régulateur, sur la partie verticale, 20.500 immeubles étaient raccordés à au moins 1 opérateur, soit quelque 550.000 foyers éligibles aux offres à très haut débit en fibre optique jusqu'à domicile (FTTH). Par ailleurs, entre 3 et 4,5 millions de foyers habitaient à proximité de déploiements en fibre optique sur la partie horizontale. Ces déploiements sont majoritairement le fait de l'opérateur historique, France Telecom, et de Numericable. Les autres opérateurs du secteur, Free Infrastructure, SFR et Sequalum (92), ont annoncé des investissements « significatifs » dans le domaine.

Concernant la poursuite du déploiement, des divergences existent entre opérateurs en termes techniques (point à point/passif optique/mixte) et stratégiques, notamment sur les problématiques relatives à la couverture du territoire. Dans un document d'orientations (pdf) ouvert à consultation jusqu'au 30 avril 2009, l'Arcep propose une définition précise des zones très denses et peu denses.

Les premières pourraient être qualifiées de « zones à forte concentration de population, où il est techniquement possible à plusieurs opérateurs de déployer leurs propres infrastructures, en l'occurrence leurs réseaux de fibre optique, au plus près des logements. En d'autres termes, il est possible qu'il y ait dans ces zones, plusieurs réseaux capillaires déployés en parallèle. A priori dans la majorité de ces zones, les principaux acteurs du marché ont préparé ou engagé des déploiements. » On pense notamment à Paris, Lyon et Marseille. En dehors des zones très denses, l'Arcep s'est déclarée favorable à la création « d'un grand réseau mutualisé ouvert ». Un groupe de travail devra rendre ses premiers retours sur le sujet, fin juin ou début juillet 2009.

Par ailleurs, conformément à la loi de modernisation de l'économie, le point de mutualisation (principalement en pied d'immeuble dans les zones très denses) doit se situer en dehors de la propriété privée, hors exceptions que l'Arcep devra définir. Enfin, sur l'ensemble du territoire, le partage des rôles entre opérateur d'immeuble et opérateur commercial devrait être la règle.« La démarche engagée est progressive, elle implique opérateurs, pouvoirs publics et collectivités territoriales », a résumé Nathalie Kosciusko-Morizet, secrétaire d'Etat à la prospective et au développement de l'économie numérique, auprès du Premier ministre. Jean-Claude-Mallet, pour sa part, a réaffirmé vouloir donner une chance - une chance de s'exprimer - à chacune des stratégies et des technologies privilégiées par les opérateurs.

Il reste une inconnue de taille pour l'ensemble des acteurs de la fibre optique en France : le retour sur investissement (ROI).
Internet joue désormais un rôle prépondérant dans toute campagne politique, comme en témoignent les récentes élections présidentielles américaines. Les algériens l'ont appris hier à leur dépend puisqu'en se rendant sur Google Algérie certains tombaient sur le site site officiel du président sortant et candidat à une ré-élection Abdelaziz Bouteflika.

De nombreux algériens ont effectivement fait part de cette inquiétante mésaventure au travers de blogs et de forums, bien que Google n'ait pas réagit publiquement à cette information. Contacté par nos soins, Google France n'aurait pas encore eu vent de cette affaire. Les abonnés de l'un des principaux fournisseurs d'accès du pays, Eepad, auraient vraisemblablement été victime d'un empoisonnement des serveurs DNS de leur FAI, et non d'une campagne publicitaire hors norme du candidat. Le problème aurait été corrigé au bout de 3 heures et demi, sans qu'on sache s'il s'agissait d'un piratage ou d'une manoeuvre volontaire du fournisseur d'accès. L'utilisation d'autres serveurs DNS aurait en tout cas permis d'accéder au véritable moteur de recherche.

Google Algérie avait mystérieusement été lancé dans la plus grande discrétion quelques mois plus tôt, en plusieurs étapes. Les internautes algériens avaient effectivement été redirigés dans un premier temps vers le nom de domaine google.dz, avant même qu'il ne soit enregistré dans le registre des noms de domaines nationaux. Il avait finalement été mis en ligne sans aucune annonce officielle, avant d'être rapidement traduit en arabe. Ni le fournisseur d'accès Eepad ni les bureaux du registre de l'extension .dz ne sont joignables de la France à l'heure où nous écrivons ces lignes.

Google Algérie est en tout cas de nouveau accessible aux abonnés d'Eepad. L'élection présidentielle a lieu jeudi et les sondages donnant d'ores et déjà Abdelaziz Bouteflika grand vainqueur.
le 07/04/2009 à 23:16
Integration de firePHP
Le blog de Christophe Dorn a réalisé un guide pour intégrer FirePHP dans une application ou un site web qui utilise Ajax.

Ce guide va vous montrer comment utiliser, optimiser, intégrer et repérer facilement les problèmes pouvant apparaître dans votre application.

Un très bon guide pour soulager le développeur.

- Integrating FirePHP for Ajax Development
- Demo Integrating FirePHP for Ajax Development
Dévoilé au mois de septembre 2008, Chrome, le navigateur de Google, est actuellement disponible pour les utilisateurs de Windows en version 2.0. Depuis la sortie du logiciel, plusieurs développeurs ont rejoint le projet open source Chromium afin de porter le navigateur sur les systèmes Mac OS X et Linux.

Au mois de janvier dernier, Brian Rakowski, en charge du produit chez Google, confirma ces informations et ajouta que ces versions étaient : "capables d'afficher plutôt correctement les pages web. Mais c'est encore très rudimentaire sur le plan de l'expérience utilisateur."

Le mois dernier, nous apprenions qu'une pre-alpha de Chrome avait été compilée pour le système Linux Ubuntu. Aujourd'hui, la toute première pré-alpha de Chrome pour Mac OS X est arrivée et disponible pour les plus impatients d'entre vous.

Puisqu'il s'agit d'une pré-alpha, l'application n'est pas stable et plusieurs fonctionnalités manquent encore à l'appel. D'après les premiers retours, il ne serait pas possible d'ouvrir des liens directement dans un nouvel onglet. Par ailleurs, la bibliothèque des plugins n'est pas encore intégrée, ce qui signifie que le navigateur ne prend pas encore en charge les éléments Flash. Outre l'impossibilité d'imprimer une page web, l'utilisateur ne pourra pas accéder à l'historique de navigation, à la barre de favoris ou encore aux préférences du logiciel.

Téléchargez la toute première version de Chrome pour Mac OS X ici. La version finale devrait être dévoilée en automne prochain.
Une concurrence malvenue pour les services d'annuaire ? Google vient d'automatiser le processus de géolocalisation intégré à son moteur de recherche, pour proposer à l'utilisateur des résultats en adéquation avec sa situation géographique.

Jusqu'ici, le moteur affichait, lors d'une requête générique telle que "restaurant Paris", un encart Google Maps référençant quelques-uns des résultats pertinents. Désormais, la mini-carte de Google est affichée même si l'utilisateur ne précise pas de localité.

Pour ce faire, Google indique se baser sur l'adresse IP de l'internaute, une méthode qui présente l'intérêt de ne pas requérir l'intervention de l'utilisateur, mais qui n'est pas parfaite. Il sera donc possible de spécifier ses préférences dans les options de recherche. Dans certains cas, Google tirait déjà parti de l'adresse IP pour le ciblage de ses annonces AdWords.

La géolocalisation reste toutefois très vague, ciblant l'ensemble d'une ville plutôt qu'un quartier donné, même pour une requête "de proximité" comme la recherche d'un médecin ou d'une épicerie. Dans bien des cas, on continuera donc à affiner ses requêtes en précisant la zone géographique que l'on souhaite couvrir.
LoadingChargement en cours