20000 visites a une semaine !!!!!!!!

9012013

20000 visites a une semaine examplaire de hacker




le serial au fond……!!!

9012013

Décidément cet été sera l’été des serials et clefs, profitez-en !!!

Voici les clefs des logiciels et programmes qui ont la cote en ce moment…

Au passage un petit merci ne fera pas de mal aux donnateurs et à l’auteur.

 

 

 

 

 

Clefs et serials et keys « Serie AOUT 2011″

 

Tune UP 2011 (nouvelles clefs) :

MT2FF7-4JY4CN-Y51Y35-Q6NXRH-0D24EQ-1R3B6E

KMEM6E-R19H2T-DRX2VJ-V251Y6-6D6FPV-QHE39F

3A4EF5-DK71DP-3P1KN6-AQV0VT-85EK62-N6HKYH

MTXTAA-332VXV-KCWV35-0WYD7Q-DD3BMV-TP88YM

D6K2D2-DR38Y5-MPY59V-4AQ3WH-70YR4J-NVMBH8

 

Adobe Photoshop CS5:

1330-1270-2109-5153-8837-9231

1330-1953-8438-8500-7117-3533

1330-1158-3088-0438-6574-0867

1330-1361-6670-4304-7886-6688

1330-1241-0674-5648-4729-1904

1330-1397-1014-7571-2817-1355

1330-1250-9206-4495-3796-9368

1330-1331-8999-1502-9478-2917

1330-1281-8916-6015-7348-5124

1325-1558-5864-4422-1094-1126

 

Adobe After Efect CS5 et CS5.5:

1023-1692-1814-7117-3800-5199

1023-1429-2242-5480-3622-2287

1023-1008-2200-5043-6369-9630

1023-1431-6457-7353-8141-1978

1023-1422-9727-0278-9862-5332

1023-1231-8946-3400-2562-2139

1023-1759-9562-0497-7661-7904

1023-1442-7261-5188-1986-3386

AVG internet security 2011:

8MEH-RR6GC-KLJJD-S7DBA-NU862-EEMBR-ACED

 

Windows 7 32/64 bit :

FJGCP-4DFJD-GJY49-VJBQ7-HYRR2

 

Utilisation: N’installez jamais les mises à jours

 

PS: Si vous cherchez un logiciel bien précis, postez un commentaire et nous tacherons de vous trouver un serial gratuitement bien sur ;)

 

 

FROM DUST :

1. Télécharger ICI (Cliquez sur SLOW DOWNLOAD) puis ajouter « ubiorbitapi_r2.dll » à votre liste d’exception d’antivirus – si vous ne savez pas comment faire, aller sur google et tapper « ajouter exception » suivit du nom de votre AV
2. Coller l’intégralité du fichier rar dans le dossier du jeu
3. Lancer le jeu via From_Dust.exe
4. S’il vous demande le numéro de série, cliquez sur annuler. Amusez-vous bien le serial au fond......!!!  wink
(perso je ne connaissez pas le jeu mais quand j’ai lancé le jeu pour la première fois, j’ai eu l’écran de fond sans le menu. Si ça se produit aussi chez vous, pas de panique, suffit de alt+f4 et de relancer le jeu, normalement, c’est bon ^^)
4a. Si vous avez une absence de menu ou un problème de sauvegarde, décocher, dans les paramètres du lanceur, la synchronisation des sauvegardes.

 

en espérant vous avoir aider…amusez-vous bien !

 

 

VMware fusion 3.0 :

2FL49-T6E8D-04WMR-3TD52-3YG3G

VCJN1-J51JF-H4TJ3-YYR7J-NCZF1

 




L’Universal Mobile Telecommunications System (UMTS)

7012013

L’Universal Mobile Telecommunications System (UMTS) est l’une des technologies de téléphonie mobile de troisième génération (3G). Elle est basée sur la technologie W-CDMA, standardisée par le 3GPP et constitue l’implémentation dominante, d’origine européenne, des spécifications IMT-2000 de l’UIT pour les systèmes radio cellulaires 3G.

L’UMTS est parfois aussi appelé 3GSM, soulignant la filiation qui a été assurée entre l’UMTS et le standard GSM auquel il succède.

On l’appelle également et plus simplement 3G, pour troisième génération.

Voir aussi le tableau de synthèse des différentes générations de technologies de téléphonie mobile en bas de page.

Sommaire

[masquer]

Débuts[modifier]

Le déploiement de l’UMTS, initialement prévu pour le début du siècle a été reporté en raison de son coût et de la mauvaise conjoncture économique du monde des télécommunications suite à l’éclatement de la bulle internet[1].

Dans le monde[modifier]

Le 1er décembre 2002, l’opérateur norvégien Telenor a annoncé le déploiement du premier réseau commercial UMTS. L’opérateur autrichien Mobilkom Austria a quant à lui lancé le premier service commercial UMTS le 25 septembre 2002.

En France[modifier]

En France, SFR a lancé son offre commerciale le 10 novembre 2004 et Orange a fait de même le 9 décembre 2004. L’opérateur Bouygues Telecom a d’abord préféré se concentrer sur la technologie EDGE en 2005, pour offrir les mêmes types de services (excepté la visiophonie) avec un investissement moindre ; néanmoins, Bouygues Telecom dispose d’une licence UMTS et a été tenu, du fait de ses engagements envers l’ARCEP, à ouvrir son réseau commercialement début 2007. Suez s’était allié à l’opérateur espagnol Telefonica pour proposer une offre dans le cadre de l’appel à candidature lancé par l’ART en 2003 sous la dénomination « ST3G », mais n’a finalement pas déposé sa candidature, abandonnant le projet quelques jours avant l’échéance de remise des offres.

C’est le 18 décembre 2009, après de nombreuses péripéties et tergiversations[2] que l’ARCEP retient la candidature de Free Mobile (groupe iliad) pour la 4e licence UMTS. Elle est officiellement attribuée le 13 janvier 2010.

Technologie et fréquences[modifier]

Technologie[modifier]

L’Universal Mobile Telecommunications System (UMTS) 440px-UMTS_structures.svg

magnify-clip

Structure d’un réseau UMTS; la partie radio (RAN) à gauche, le coeur de réseau à droite : voix (en haut) et données (en bas).

L’UMTS est une technologie de téléphonie cellulaire dont la partie radio (UTRAN) repose sur la technique d’accès multiple W-CDMA, une technique dite à étalement de spectre, alors que l’accès multiple pour le GSM se fait par une combinaison de multiplexage temporel TDMA et de multiplexage fréquentiel FDMA.

Une amélioration importante de l’UMTS par rapport au GSM consiste, grâce à une nouvelle technique de codage, en la possibilité de réutiliser les mêmes fréquences dans des cellules radio adjacentes et en conséquence d’affecter une largeur spectrale plus grande à chaque cellule (5 MHz), alors qu’en GSM, les cellules radio adjacentes doivent utiliser des bandes de fréquences différentes (facteur de réutilisation variant de 1/3 à 1/7) ce qui implique (en GSM) de diviser et répartir les fréquences attribués à un opérateur entre plusieurs cellules radio.
La disparition de cette contrainte permet en UMTS d’avoir plus de bande passante et donc plus de débit (ou plus d’abonnés actifs) dans chaque cellule.

Fréquences attribuées à l’UMTS[modifier]

Lors de la CAMR de 1992 organisée par l’UIT à Torremolinos (province de Málaga en Espagne), les bandes hertziennes suivantes avaient été choisies pour les systèmes 3G IMT-2000 (exploité en France avec la technologie UMTS) :

  • Duplex temporel TDD : 1 885,00 à 1 920,00 MHz (bande de 35 MHz de largeur) et 2 010,00 à 2 025,00 MHz (bande de 15 MHz) ;
  • Duplex fréquentiel FDD : 1 920,00 à 1 980,00 MHz (uplink de 60 MHz) et 2 110,00 à 2 170,00 MHz (downlink de 60 MHz) ;
  • Bandes satellites : 1 980,00 à 2 010,00 MHz (uplink de 30 MHz) et 2 170,00 à 2 200,00 MHz (downlink de 30 MHz).

D’autres bandes de fréquences ont plus tard été attribuées à l’UMTS, notamment en Amérique du Nord et en Asie.

La bande de fréquence affectée à chaque cellule radio est de 5 MHz avec une largeur spectrale réelle de 4,685 MHz.

Attribution des fréquences en France[modifier]

Les attributions de bandes en France sont réglementées par la décision no 00-0835 de l’ARCEP en date du 28 juillet 2000. Le texte a été publié au JORF sous la référence NOR ARTL0000422V[3].

Comme prévu par l’ARCEP lors de l’attribution des licences (en 2001 et 2002), les bandes de fréquences des 900 MHz et 1 800 MHz initialement utilisées en France pour le GSM peuvent être réutilisées en tout ou partie pour la 3G depuis les décisions de l’ARCEP du 26 février 2008[4]. Une redistribution partielle des fréquences de l’ensemble des opérateurs concernés a eu lieu suite à cette décision pour permettre l’arrivée en 2012 d’un quatrième opérateur.

Fréquences FDD[modifier]

bandes 2100 MHz[modifier]

Les fréquences dans la bande des 2 100 MHz sont exclusivement réservées à l’UMTS.

ba5c0611c8c33c5370cdea8ff417208d

66afd3277c55ffedceeb048470e7579d

bandes 900 MHz en 2012[modifier]

Les fréquences dans la bande des 900 MHz peuvent être utilisées pour l’UMTS ou le GSM[4].

Dans les zones très denses en 2012[5][modifier]

aa7054e1714b15a69ee2004d479c0ac2 22f65f29a29a1964e1a367b1786e8c27

Sur l’ensemble du territoire métropolitain sauf dans les zones très denses depuis le 12 juillet 2011[modifier]

6633cae5ad04708fdfd3e44bbe0247cb 440e3558c0bf51c99e0eac33894aece9

Autour de 13 camps militaires depuis le 12 juillet 2011[6][modifier]

48e41c9ace84b53bca268744bc69e1b0 a65ffce11c3fff13704899630283b75c

bandes 900 MHz à partir de 2013[modifier]

Ces fréquences dans la bande des 900 MHz peuvent être utilisées pour l’UMTS ou le GSM.

Dans les zones très denses (Paris et 7 grandes villes) à compter du 1er janvier 2013[5][modifier]

6633cae5ad04708fdfd3e44bbe0247cb 440e3558c0bf51c99e0eac33894aece9

Bilan en France : UMTS – fréquences FDD[modifier]

En France en 2012, les 2X95 MHz de spectre hertzien utilisables pour l’UMTS en mode FDD sont donc actuellement répartis de la façon suivante entre les opérateurs :

  • En France métropolitaine (hors région parisienne et 7 grandes villes[4]) : Bouygues : 26,3 %, Free Mobile : 10,6 %, Orange : 31,6 %, SFR : 31,6 %.
  • Dans les zones très denses : région parisienne et 7 grandes villes : Bouygues : 26,3 %, Free Mobile : 5,3 %, Orange : 34,2 %, SFR : 34,2 %.

À partir du 1er janvier 2013 :

  • En France métropolitaine (y compris les zones très denses) : Bouygues Telecom : 26,3 %, Free Mobile : 10,6 %, Orange : 31,6 %, SFR : 31,6 %.

Fréquences TDD[modifier]

bande 1900 MHz[modifier]

be4dc92c362ef6f9ee00c5aa8cc53026

Cette bande de fréquence UMTS TDD n’est pas accessible par la plupart de téléphones « grand public » commercialisés en Europe ; elle est réservée en France à des usages professionnels.

Débits[modifier]

Débits théoriques[modifier]

L’UMTS dans sa version initiale « 3GPP R99 » (normalisée en 1999 et complétée en 2001) permettait un débit maximum théorique de données descendantes (téléchargement) de 1,920 Mb/s. Cette vitesse est nettement supérieure au débit initial du GSM qui était de 9,6 kb/s et supérieure à celles des vitesses maximales offertes par les variantes du GSM optimisées pour le transfert de donnée (GPRS et EDGE) : 384 kb/s pour l’EDGE.

Les débits UMTS varient suivant le lieu d’utilisation et la vitesse de déplacement de l’utilisateur[7]. Pour la première génération de l’UMTS (celle disponible en France de 2005 à 2009), les débits maximum descendants (download) étaient de :

  • 144 kb/s pour une utilisation mobile en mouvement rapide (voiture, train, etc.) et en zones rurales loin de l’antenne ;
  • 384 kb/s pour une utilisation piétonne ;
  • jusqu’à 2 000 kb/s depuis un point fixe (terminal immobile) et dans des conditions idéales.

Les évolutions suivantes, apparues avec les versions 5 et 6 de la norme 3GPP (Releases 5 et 6) sont appelées 3.5G ou HSPA (High Speed Packet Access) : combinaison de l’ HSDPA et de l’HSUPA ; elles autorisent des débits pics descendants de 7 Mb/s et 14 Mb/s et des débits montant pouvant atteindre 5 8 Mb/s théoriques.

Les versions 7 et 8 (rel-8 du 3GPP)[8], appelées HSPA+ ou (3.75G), ont défini de nouvelles améliorations de la norme UMTS (voir article HSPA+) permettant d’atteindre, pour la variante FDD utilisée en Europe, des débits descendants pics de 21 Mb/s, 42 Mb/s et même, dans le futur 84 Mb/s en mode multi antennes MIMO. L’implémentation qui en est faite sur les réseaux 3G Français en 2012 et qui est supportée par les terminaux les plus récents (smartphones et tablettes, par exemple l’Ipad 3) correspond à la variante dite « DC-HSPA+ » qui implique d’utiliser 2 cellules radio simultanément (2 bandes de fréquence UMTS adjacentes de 5 MHz) ; elle permet un débit pic descendant de 42 Mb/s.

Nota : Ces débits théoriques pics supposent un terminal immobile, placé dans des conditions de réception radio parfaites et, en pratique, d’avoir un seul terminal actif à un instant donné dans la cellule radio (zone couverte par la ou les antennes du Node B).

Débits réels[modifier]

Le débit réel de données d’un terminal UMTS est le plus souvent très inférieur au débits binaires théoriques promis par les normes UMTS. Les principaux facteurs ayant une influence sur les débits réels observés par l’abonné sont les suivants :

  • Le nombre d’utilisateurs actifs se partageant la bande passante au sein d’une cellule radio (surface radiante d’une antenne UMTS); plus il y a d’abonnés actifs, moins chacun a de débit unitaire. Il en découle que le débit observé dépend de l’heure[7] (moins d’abonnés actifs durant la nuit).
  • La position fixe (statique) ou « en mouvement » du terminal de l’abonné ; le débit utile est réduit pour un terminal en mouvement rapide.
  • La distance entre le terminal et l’antenne relais. Le débit est quasi constant dans une grande partie de la cellule radio puis décroît en limite de portée quand le signal s’affaiblit[7].
  • la position d’un terminal à la frontière entre 2 cellules radio (même près de l’antenne)[9]. Le débit est très inférieur dans cette zone à cause des interférences avec les cellules adjacentes qui en UMTS utilisent généralement les mêmes fréquences hertziennes (contrairement à ce qui se passe en GSM/EDGE ou les cellules radio adjacentes utilisent des fréquences différentes).
  • Le type et la catégorie du terminal UMTS et le fait qu’il soit compatible (ou pas) avec les dernières générations des normes UMTS (HSPA et HSPA+)[8].
  • les conditions de réception radio (interférences, bruit, affaiblissements, échos liés aux réflexions sur les immeubles, …).
  • La capacité en débit et en nombre d’utilisateurs simultanés de la station de base (Node B), le débit des liens (cuivres ou optiques) reliant cette station au cœur de réseau (RNC) et sa compatibilité avec les nouvelles normes HSPA, HSPA+ et DC-HSPA+.
  • La position du terminal mobile à l’intérieur d’un bâtiment induit une atténuation du signal radio qui peut entrainer une diminution du débit[7].

Applications et services[modifier]

Grâce à sa vitesse accrue de transmission de données, l’UMTS ouvre la porte à des applications et services nouveaux. L’UMTS permet en particulier de transférer en temps réel des contenus multimédia tels que les images, le son et la vidéo.

Initialement, on a pu croire que les nouveaux services concernent surtout l’aspect vidéo : visiophonie, MMS Vidéo, vidéo à la demande, télévision. S’il est encore tôt pour dire s’ils vont éclore dans le futur, la 3G a en fait été principalement colonisée par une utilisation de type Internet, et ce principalement depuis l’explosion du marché des smartphones et des réseaux sociaux.

Déploiement commercial dans le monde[modifier]

Deux milliards d’utilisateurs étaient couverts par cinq cents réseaux 3G et plus fin 2010, avec des écarts selon les continents : 82 % de la population de l’Europe de l’Ouest mais 12 % de celle de l’Asie-pacifique[10] alors que fin 2006 des services UMTS étaient proposés par 155 opérateurs à travers le monde pour 80 millions d’utilisateurs.

Couverture[modifier]

L’UMTS impose de déployer un nouveau réseau physique d’antennes et nécessite de nombreuses stations (Node B) afin de fournir une couverture adaptée. Ainsi en 2007, Orange France ne couvrait que 65 % de la population avec 6 500 sites et fin 2009, 87 % de la population avec 11 000 sites.

Lors de contrôles réalisés fin 2011, l’ARCEP a constaté que le taux de couverture des réseaux 3G d’Orange France et de SFR couvraient désormais plus de 98 % de la population française, le réseau de Bouygues Telecom atteignant à la même date, une couverture supérieure à 93 % de la population[11]. Afin d’offrir une bonne couverture dans les zones peu denses, il est courant d’y partager les réseaux, ce que font SFR, Orange et Bouygues Telecom[10].
Fin 2012, l’Arcep a confirmé ces taux de couverture, avec au 1er juillet 2012, un taux de couverture 3G supérieur à 98 % pour Orange et SFR et de plus de 94 % pour Bouygues Telecom (disponibilité du service à l’extérieur des bâtiments, en situation statique)[12].

Revenus[modifier]

En France, les opérateurs ne sont pas parvenus à tirer un revenu supplémentaire de leur réseau 3G, mais il est devenu indispensable face à la concurrence d’offrir un accès haut débit à internet, souvent illimité ou presque, en complément des services mobiles classiques GSM : voix, SMS et ring back tone. Les applications rendues possibles : MMS, TV, musique, vidéo téléphonie, accès à internet, se sont ajoutées à ceux-ci sans forcément augmenter la recette moyenne par abonné (ARPU).

Saut direct de la 2G vers la 4G[modifier]

Face à un lent retour sur investissement, et du fait de l’évolution rapide des techniques, l’opérateur américain Sprint Nextel avait décidé en 2006 d’investir directement près de 3 Md$ pour couvrir les États-Unis en 4G WIMAX[13]; il a ensuite opté fin 2011 pour la technologie LTE (plutôt que WIMAX) pour son réseau 4G. AT&T, qui détient 100 % de Cingular Wireless (maintenant nommé AT&T Mobility), a choisi lui aussi la technologie 4G LTE. Environ 250 opérateurs avaient annoncé être en train d’évaluer ou de déployer WiMax ou LTE dans leur réseau et avaient annoncé vouloir sauter l’étape 3G en déployant des réseaux basés sur des technologies mobiles 4G entièrement basées sur IP, plus performantes et moins coûteuses[13].

Parmi les technologies 4G, il existe deux écoles incompatibles : WiMAX mobile basée sur la technologie MIMO et normalisée par l’IEEE, et LTE/SAE (Long Term Evolution « System Architecture Evolution ») qui est une initiative défendue par le 3GPP dans la lignée de l’UMTS. Plusieurs opérateurs dans différents pays ont commencé dès 2009 à tester le WiMAX mobile alors que les premiers déploiements commerciaux du LTE débutent en 2011 (États-Unis) et en 2012 en Asie et en Europe.

Comme solution complémentaire ou alternative avec des investissements moindres que ceux nécessaires pour l’UMTS, les exploitants de réseaux GSM peuvent aussi mettre à jour les équipements des réseaux 2G existants en utilisant « Evolved EDGE », une évolution de la technologie GPRS EDGE capable de supporter des débits de 450 à 500 Kbit/s, avant de mettre en place un réseau 4G. Les réseaux EDGE présentent l’avantage d’avoir déjà une bonne couverture car les antennes relais et les bandes de fréquences utilisées sont les mêmes que celles du GSM.

Voir aussi[modifier]

Articles connexes[modifier]

Lien externe[modifier]

Références[modifier]

  1. UMTS L’Internet mobile rame avant d’exister [archive], L’Humanité, 1 Février 2001
  2. La 4e licence fait des vagues [archive], L’Humanité, 4 Août 2009
  3. Légifrance ou Adminet [archive]
  4. a, b et c [PDF] Décisions n° 2008-0228 et n° 2008-0229 de l’Arcep sur la réutilisation des fréquences GSM pour l’UMTS [archive] Astrid-online – Arcep, communiqués du 26 février 2008.
  5. a et b 8 zones autour de Paris, Lille, Strasbourg, Lyon, Nice, Marseille, Toulouse et Bayonne. Voir la décision n° 2006-0140 pour leur définition précise.
  6. Voir l’annexe 5 de la décision n° 2002-0401 pour leur localisation précise
  7. a, b, c et d [PDF] Rapport sur la couverture et la qualité des services mobiles en France métropolitaine – p.12 à 15, et p.20, La variabilité des performances des réseaux mobiles [archive] Arcep.fr, novembre 2012
  8. a et b 3GPP, Radio aspects, voir les versions rel-8 et notamment les normes FDD et HSPA 25101, 25104, 25306, 25308 et 25825 [archive] 3gpp.org
  9. Un site d’antenne-relais UMTS (macrocells) est généralement équipé de 3 antennes qui émettent chacune sur un secteur de 120°, la zone en limite de 2 lobes d’émission de 120° est une zone d’interférences si les 2 cellules utilisent la même bande de fréquence hertzienne
  10. a et b Ian Mansfield, « Two Billion Covered by 3G and LTE/WiMAX Data Services [archive] », cellular-news, 29 novembre 2010
  11. Taux de couverture des opérateurs français fin 2011 [archive] Arcep, communiqué du 28 février 2012
  12. [PDF] Rapport sur la couverture et la qualité des services mobiles en France métropolitaine – p.77, la couverture 3G en métropole au 1er juillet 2012 [archive] Arcep.fr, novembre 2012
  13. a et b 4G : Sprint Nextel fait le choix du WiMax mobile [archive], Journal « Neteco », 9 août 2006.



4G : la France se prépare pour le très-haut-débit mobile

7012013
4G : la France se prépare pour le très-haut-débit mobile dot

dot

<!–

TBO –>

Le haut-débit mobile c’est bien, mais le très-haut-débit mobile, c’est mieux. A l’heure où les consommateurs se convertissent enfin massivement à la 3G, la nouvelle génération de téléphonie mobile se profile déjà à l’horizon. Avec la 4G, l’abonné mobile disposera, a minima, d’une dizaine de Mbit/s au creux de la main pour surfer, regarder la télévision ou communiquer en vidéo avec la même fluidité que sur son PC. Et c’est pour bientôt : la 4G pourrait être commercialisée en France dès la fin de 2011, si la feuille de route avancée par le régulateur des télécoms (Arcep) est respectée.
L’Arcep prévoit en effet d’attribuer des licences 4G aux opérateurs dès l’année prochaine, en 2010. D’ici là, il doit définir les critères d’attribution et les obligations spécifiques qui pèseront sur les opérateurs 4G : c’est l’un des objectifs de la consultation publique ouverte au mois de mars 2009 par le régulateur. Opérateurs et équipementiers télécoms sont notamment invités à faire part de leur préférence parmi les différentes technologies capables de fournir du très-haut-débit mobile.

Le LTE, moteur de la 4G

Car si l’UMTS (et ses dérivés HSDPA, HSPA…) est le moteur de la 3G, on ne connaît pas encore celui de la 4G. Deux technologies sont envisageables : le LTE (long term evolution) et le WiMax Mobile. En théorie, rien n’empêchera un opérateur avec une licence 4G d’utiliser les deux. Mais dans les faits il n’en restera qu’une, celle qui sera suivie par le plus grand nombre : « en Europe, c’est le LTE se démarque », indique Pierre Carbonne, responsable du pôle haut-débit mobile de l’Idate. Opérateurs et équipementiers travaillent main dans la main pour expérimenter cette technologie et participer à sa standardisation. Elle a d’ailleurs été officiellement choisie par les opérateurs qui ont déjà obtenu des licences 4G en Suède et en Norvège.
Contrairement au WiMax mobile, le LTE a l’avantage d’être le successeur naturel de la 3G « Il n’y a pas de rupture entre les deux. Il y a même une rétro-compatibilité des équipements », précise Pierre Carbonne. Le passage de la 3G au LTE n’est toutefois pas anodin. Les opérateurs doivent tout d’abord modifier leur cœur de réseau pour prévoir la montée en charge du trafic : dans sa première génération, le LTE pourra offrir un débit théorique entre 20 et 100 Mbit/s par cellule (à partager entre les utilisateurs connectés). Mais il faudra aussi adapter les émetteurs radio (stations de base) puisque le réseau mobile deviendrait «tout IP», du coeur de réseau jusqu’au bout des antennes.

Le très-haut-débit mobile en attente de fréquences

Reste un autre « détail » à régler. Le très-haut-débit mobile nécessite des bandes de fréquence spécifiques, actuellement occupées. L’une d’entre elles est utilisée par l’armée (bande des 2,6 Ghz), qui doit la libérer entre 2010 et 2012. L’autre, aux fréquences moins élevées (800 Mhz), permettra en complément d’élargir la couverture de la 4G et de mieux pénétrer à l’intérieur des bâtiments. Elle est utilisée pour transmettre la télévision analogique hertzienne, qui sera supprimée le 30 novembre 2011. Les opérateurs mobiles récupéreront alors une partie des fréquences libérées (dividende numérique) pour booster leur 4G.



internet

7012013

Internet est un système d’interconnexion de machines et constitue un réseau informatique mondial, utilisant un ensemble standardisé de protocoles de transfert de données. C’est donc un réseau de réseaux, sans centre névralgique, composé de millions de réseaux aussi bien publics que privés, universitaires, commerciaux et gouvernementaux. Internet transporte un large spectre d’information et permet l’élaboration d’applications et de services variés comme le courrier électronique, la messagerie instantanée et le World Wide Web.

Internet ayant été popularisé par l’apparition du World Wide Web, les deux sont parfois confondus par le public non averti. Le World Wide Web n’est pourtant que l’une des applications d’Internet.

L’accès à Internet peut être obtenu grâce à un fournisseur d’accès à Internet via divers moyens de communication électronique : soit filaire (réseau téléphonique commuté (bas débit), ADSL, fibre optique jusqu’au domicile), soit sans fil (WiMAX, par satellite, 4G+). Un utilisateur d’Internet est désigné par le néologisme « internaute ».

Sommaire

[masquer]

Terminologie[modifier]

Le terme d’origine américaine « Internet » est dérivé du concept d’internetting (en français : « interconnecter des réseaux ») dont la première utilisation documentée remonte à octobre 1972 par Robert E. Kahn[1] au cours de la première ICCC (International Conference on Computer Communications) à Washington.

Les origines exactes du terme Internet restent à déterminer. Toutefois, c’est le 1er janvier 1983 que le nom « Internet », déjà en usage pour désigner l’ensemble d’ARPANET et plusieurs réseaux informatiques, est devenu officiel[2].

En anglais, on utilise un article défini et une majuscule, ce qui donne the Internet. Cet usage vient du fait que « Internet » est de loin le réseau le plus étendu, le plus grand « internet » du monde, et donc, en tant qu’objet unique, désigné par un nom propre. Un internet (un nom commun avec « i » minuscule) est un terme d’origine anglaise utilisé pour désigner un réseau constitué de l’interconnexion de plusieurs réseaux informatiques au moyen de routeurs[3].

Une publication au Journal officiel de la République française indique qu’il faut utiliser le mot « internet » comme un nom commun, c’est-à-dire sans majuscule[4]. L’Académie française recommande de dire « l’internet »[5]. Il existe une controverse sur le sujet entre les partisans des expressions « l’Internet » , « l’internet » , « Internet » et « internet »[6].

Historique[modifier]

Article détaillé : Histoire d’Internet.

Les mémos que Licklider du Massachusetts Institute of Technology (MIT) écrivit en juillet 1962 sont les plus anciens textes décrivant les interactions sociales qui seraient possibles avec un réseau d’ordinateurs. Cela devait notamment faciliter les communications entre chercheurs de la Defense Advanced Research Projects Agency (DARPA). En octobre 1962, Licklider fut le premier chef du programme de recherche en informatique de la DARPA. Il persuada ses successeurs Ivan Sutherland, Bob Taylor et le chercheur du MIT Lawrence G. Roberts de l’intérêt des réseaux informatiques.

En 1961, Leonard Kleinrock du MIT publia le premier texte théorique sur les télécommunications par paquets et en 1964 il publia le premier livre sur le sujet.

En 1965, Roberts testa avec Thomas Merrill la première connexion informatique à longue distance, entre le Massachusetts et la Californie. Le résultat montra que des ordinateurs pouvaient travailler ensemble à distance, mais que le mode de télécommunication par établissement de circuit du système téléphonique était inadapté. Le concept de communication par paquets de Kleinrock s’imposa.

En 1966, Roberts fut engagé par Taylor à la DARPA pour concevoir l’ARPANET. Il publia les plans en 1967. En présentant ce texte, il découvrit deux autres groupes de chercheurs travaillant indépendamment sur le même sujet : un groupe du National Physical Laboratory (NPL) du Royaume-Uni avec Donald Davies et Roger Scantlebury, et un groupe de la RAND Corporation avec Paul Baran.

Entre 1962 et 1965, le groupe de la RAND avait étudié la transmission par paquets pour l’armée américaine. Le but était de pouvoir maintenir les télécommunications en cas d’attaque (éventuellement nucléaire), ce que permet une transmission par paquets dans un réseau non centralisé. Il s’agissait d’un développement indépendant d’ARPANET : bien que probablement robuste face à une telle attaque, ARPANET n’a pourtant été conçu que pour faciliter les télécommunications entre chercheurs. Le rapport de Paul Baran est resté purement théorique, et est rapidement tombé dans l’oubli. Mais le mythe d’« ARPANET comme dernier rempart à une attaque atomique » trouve là son origine.

Pendant ce temps, au British National Physical Laboratory, l’équipe de Donald Davies avait progressé : NPL Network, le premier réseau maillé fondé sur la transmission de datagrammes (packets) était fonctionnel. Mais l’histoire d’Internet n’a pas été écrite par les Européens : ARPANET sera désormais l’origine officielle d’Internet.

En août 1968, la DARPA accepta de financer le développement du matériel de routage des paquets d’ARPANET. Ce développement fut confié en décembre à un groupe de la firme Bolt, Beranek and Newman (BBN) de Boston. Ce dernier travailla avec Bob Kahn sur l’architecture du réseau. Roberts améliorait les aspects topologiques et économiques du réseau. Kleinrock préparait des systèmes de mesures du réseau.

Le 20 septembre 1969, BBN installa le premier équipement à l’UCLA où travaillait Kleinrock. Le second nœud du réseau fut installé au Stanford Research Institute (SRI) où travaillait Douglas Engelbart sur un projet d’hypertexte. Deux nœuds supplémentaires furent ajoutés avec l’université de Santa Barbara et l’université d’Utah. Fin 1969, ARPANET comptait donc quatre nœuds.

Le Network Working Group (NWG) conduit par Steve Crocker finit le protocole de communication poste-à-poste NCP en décembre 1970. Ce protocole fut adopté entre 1971 et 1972 par les sites branchés à ARPANET. Ceci permit le développement d’applications par les utilisateurs du réseau.

En 1972, Ray Tomlinson mit au point la première application importante : le courrier électronique. En octobre 1972, Kahn organisa la première démonstration à grande échelle d’ARPANET à l’International Computer Communication Conference (ICCC). C’était la première démonstration publique.

Le concept d’Internet est né d’ARPANET. L’idée était de permettre la connexion entre des réseaux divers : ARPANET, des communications avec les satellites, des communications par radio. Cette idée fut introduite par Kahn en 1972 sous le nom de Internetting. Le protocole NCP d’ARPANET ne permettait pas d’adresser des hôtes hors d’ARPANET ni de corriger d’éventuelles erreurs de transmission. Kahn décida donc de développer un nouveau protocole, qui devint finalement TCP/IP.

En parallèle, un projet inspiré par ARPANET était dirigé en France par Louis Pouzin : le projet Cyclades. De nombreuses propriétés de TCP/IP ont ainsi été développées, plus tôt, pour Cyclades. Pouzin et Kahn indiquent que TCP/IP a été inspiré par Cyclades. |

En 1973, Kahn demanda à Vint Cerf (parfois appelé le père d’Internet) de travailler avec lui, car Cerf connaissait les détails de mise en œuvre de NCP. Le premier document faisant référence à TCP est écrit en 1973 par Cerf : A Partial Specification of an International Transmission Protocol. La première spécification formelle de TCP date de décembre 1974, c’est le RFC 675.

La version initiale de TCP ne permettait que la communication en établissant un circuit virtuel. Cela fonctionnait bien pour le transfert de fichiers ou le travail à distance, mais n’était pas adapté à des applications comme la téléphonie par Internet. TCP fut donc séparé de IP et UDP proposé pour les transmissions sans établissement d’un circuit.

À la fin des années 1980, la NSF (National Science Foundation) qui dépend de l’administration américaine, met en place cinq centres informatiques surpuissants, auxquels les utilisateurs pouvaient se connecter, quel que soit le lieu où ils se trouvaient aux États-Unis : ARPANET devenait ainsi accessible sur une plus grande échelle. Le système rencontra un franc succès et, après la mise à niveau importante (matériels et lignes) à la fin des années 1980, s’ouvrit au trafic commercial au début des années 1990.

Le début des années 1990 marque, en fait, la naissance de l’aspect le plus connu d’Internet aujourd’hui : le web, un ensemble de pages en HTML mélangeant du texte, des liens, des images, adressables via une URL et accessibles via le protocole HTTP. Ces standards, développés au CERN par Tim Berners-Lee et Robert Cailliau devinrent rapidement populaires grâce au développement au NCSA par Marc Andreessen et Éric Bina du premier navigateur multimédia Mosaic.

En janvier 1992, l’Internet Society (ISOC) voit le jour avec pour objectif de promouvoir et de coordonner les développements sur Internet. L’année 1993 voit l’apparition du premier navigateur web ou butineur (browser), supportant le texte et les images. Cette même année, la National Science Foundation (NSF) mandate une compagnie pour enregistrer les noms de domaine.

Gouvernance[modifier]

internet

magnify-clip

Nombre d’utilisateurs par pays en 2006 (sources CIA)

Article détaillé : Gouvernance d’Internet.

Selon la définition du groupe de travail sur la gouvernance d’Internet, il faut entendre par « gouvernance de l’Internet » l’élaboration et l’application par les États, le secteur privé et la société civile, dans le cadre de leurs rôles respectifs, de principes, normes, règles, procédures de prise de décisions et programmes communs propres à modeler l’évolution et l’usage de l’Internet.

Les registres de métadonnées sont importants dans l’établissement de règles d’accès aux ressources web qui utilisent les Uniform Resource Identifiers (qui peuvent être les URL qui s’affichent sur la barre de navigation de l’ordinateur personnel).

Un certain nombre d’organismes sont chargés de la gestion d’Internet, avec des attributions spécifiques. Ils participent à l’élaboration des standards techniques, l’attribution des noms de domaines, des adresses IP, etc. :

Dans un but de maintenir ou d’élargir la neutralité des réseaux, mais aussi d’engager les diverses parties globales dans un dialogue sur le sujet de la gouvernance, les Nations unies ont convoqué :

La gestion des ressources numériques essentielles au fonctionnement d’Internet est confiée à l’Internet Assigned Numbers Authority (IANA), celle-ci délègue l’assignation des blocs d’adresses IP et de numéros d’Autonomous System aux registres Internet régionaux.

Au niveau régional (continents)[modifier]

Dans l’Union européenne :

Voir Utilisation de l’URI pour l’accès aux ressources informatiques dans l’Union européenne

Neutralité du réseau[modifier]

Article principal : Neutralité du réseau.

La neutralité du Net ou la neutralité du réseau est un principe fondateur d’Internet qui exclut toute discrimination à l’égard de la source, de la destination ou du contenu de l’information transmise sur le réseau. Mais de récents développements technologiques tendent à mettre fin à cette ouverture caractéristique d’Internet. C’est aujourd’hui un grand enjeu technico-économique et socio-éthique.

Aspects juridiques[modifier]

310px-Internet_blackholes_en

magnify-clip

Pays restreignant l’accès à Internet d’après Reporters sans frontières.

Le droit d’Internet regroupe l’ensemble des règles de droit applicables au réseau Internet.

Il n’existe pas de droit spécifique à Internet, mais plutôt une application du droit commun au réseau Internet, avec cependant l’apparition d’aménagements de certaines législations nationales afin de prendre en compte ces particularités (ex. en France : la Loi pour la confiance dans l’économie numérique (LCEN) du 21 juin 2004).

Selon Benjamin Bayart, activiste pour la neutralité de réseaux, l’avis du Conseil constitutionnel rendu le 10 juin 2009[note 1] confirme qu’« Internet est essentiel à l’exercice de la liberté d’expression »[7].

L’application du droit sur Internet est rendue difficile pour deux raisons principales :

  1. le réseau Internet est international, or le droit est généralement national.
  2. sous le couvert du réseau Internet, il est souvent difficile d’identifier les utilisateurs, et donc les responsables d’infractions.

Internet soulève notamment des questions de droit relatives à la propriété intellectuelle (droit d’auteur, droit des marques, etc.), au droit de la presse et des publications (infractions de presse, injure, diffamation, incitation à la haine raciale, etc.), au droit à l’image, mais aussi depuis le développement du web commercial, au droit de la publicité, au droit du commerce, etc.

Technique[modifier]

220px-Internet-transit.svg

magnify-clip

Transit du trafic IP entre un ordinateur et un serveur. Chaque routeur oriente le trafic vers un routeur voisin plus proche de la destination.

Internet est constitué de la multitude de réseaux répartis dans le monde entier et interconnectés. Chaque réseau est rattaché à une entité propre (université, fournisseur d’accès à Internet, armée) et est associé à un identifiant unique appelé Autonomous System (AS) utilisé par le protocole de routage BGP. Afin de pouvoir communiquer entre eux, les réseaux s’échangent des données, soit en établissant une liaison directe, soit en se rattachant à un nœud d’échange (point de peering). Ces échanges peuvent se limiter au trafic entre leurs utilisateurs respectifs (on parle alors de peering) ou bien inclure le trafic de tiers (il s’agit alors d’accord de transit). Un opérateur qui fournit un service de transit Internet à d’autres fournisseurs d’accès est appelé carrier. Ces accords d’échange de trafic sont libres, ils ne font pas l’objet d’une régulation par une autorité centrale.

Chaque réseau est connecté à un ou plusieurs autres réseaux. Lorsque des données doivent être transmises d’un ordinateur vers un autre appartenant à un AS différent, il faut alors déterminer le chemin à effectuer parmi les réseaux. Les routeurs chargés du trafic entre les AS disposent généralement d’une table de routage complète (Full routing table)[8] de plus de 330 000 routes en 2010[9], et transmettent le trafic à un routeur voisin et plus proche de la destination après consultation de leur table de routage.

Des chercheurs israéliens de l’université Bar-Ilan ont déclaré après avoir analysé les nœuds reliant l’ensemble des sites qu’Internet est un réseau méduse. Ils la définissent comme ayant un cœur dense connectés à une multitude d’autres sites, qui ne sont reliés entre eux que par ce cœur, semblable à un maillage à structure fractale. Cette zone permet à 70 % du réseau de rester connecté sans passer par le cœur. Les chercheurs indiquent donc cette zone comme piste pour désengorger le trafic, en répartissant mieux les sites de cette zone[10].

En pratique, ces connexions sont réalisées par des infrastructures matérielles, et des protocoles informatiques. Ces connexions permettent notamment de relier des connexions grand public à des Centre de traitement de données.

Connexions grand public[modifier]

Article détaillé : Accès à Internet.

L’accès à Internet est souvent vendu sous la forme d’offre commerciale de services, avec un abonnement fixe ou un paiement aux données consommées. Certaines organisations, notamment les universités européennes, disposent de leurs propres réseaux (ex. : Renater).

Pour accéder à Internet il faut disposer d’un équipement IP ainsi qu’une connexion à un fournisseur d’accès. Pour cela, l’utilisateur emploie les matériel et logiciel suivants :

Des logiciels sont, eux, nécessaires pour exploiter Internet suivant les usages :

Centre de traitement de données[modifier]

Article détaillé : Centre de traitement de données.

Les Centre de traitement de données sont des lieux occupés par des serveurs.

Avant la bulle Internet, des millions de mètres carrés destinés à abriter de tels centres furent construits dans l’espoir de les voir occupés par des serveurs. Depuis, la concentration des centres s’est poursuivie, avec le développement de centres spécialisés pour lesquels les défis les plus importants sont la maîtrise de la climatisation et surtout de la consommation électrique. Ce mouvement a été intégré dans le green computing et vise à aboutir à des centres de traitement de données dits écologiques pour lesquels sont apparus des outils spécialisés[11].

Infrastructures matérielles[modifier]

Article détaillé : Maillage de l’infrastructure Internet en France.

Internet repose sur la transmission d’information d’un point à un autre. Cette transmission se fait généralement au moyen d’ondes électromagnétiques. Les différents points sont donc connectés soit physiquement, soit indirectement à travers d’autres points.

Ces ondes peuvent être transmises dans l’air (technologies sans fil), dans une fibre optique ou dans un câble métallique (technologies filaires). Lorsque l’information doit passer d’une voie vers une autre, elle est aiguillée au moyen de matériels dédiés (switch, routeurs).

Protocoles logiciels[modifier]

Les protocoles logiciels utilisés sur internet sont les conventions structurant les échanges d’informations nécessaires au transfert des contenus applicatifs pour l’usager final. Ils permettent notamment d’identifier les interfaces (et donc les machines), de s’assurer de la réception des données envoyées, et de l’interopérabilité.

Internet fonctionne suivant un modèle en couches, similaire au modèle OSI. Les éléments appartenant aux mêmes couches utilisent un protocole de communication pour s’échanger des informations.

Un protocole est un ensemble de règles qui définissent un langage afin de faire communiquer plusieurs ordinateurs. Ils sont définis par des normes ouvertes, les RFC.

Chaque protocole a des fonctions propres et, ensemble, ils fournissent un éventail de moyens permettant de répondre à la multiplicité et à la diversité des besoins sur Internet.

Les principaux sont les suivants, classés selon leur couche (IP; TCP et UDP); couches applicatives :

  • IP (Internet Protocol) aussi appelé IPv4 : protocole réseau qui définit le mode d’échange élémentaire entre les ordinateurs participants au réseau en leur donnant une adresse unique sur le réseau. Mais en vu du nombre d’internaute qui est de plus en plus grand, une nouvelle norme voit le jour appelé IPv6 qui permet d’accueillir un plus grand nombre d’utilisateur.
    • TCP : responsable de l’établissement de la connexion et du contrôle de la transmission. C’est un protocole de remise fiable. Il s’assure que le destinataire a bien reçu les données, au contraire d’UDP.
      • HTTP (HyperText Transfer Protocol) : protocole mis en œuvre pour le chargement des pages web.
      • HTTPS : pendant du HTTP pour la navigation en mode sécurisé.
      • FTP (File Transfer Protocol) : protocole utilisé pour le transfert de fichiers sur Internet.
      • SMTP (Simple Mail Transfer Protocol) : mode d’échange du courrier électronique en envoi.
      • POP3 (Post Office Protocol version 3) : mode d’échange du courrier électronique en réception.
      • IMAP (Internet Message Access Protocol) : un autre mode d’échange de courrier électronique.
      • IRC (Internet Relay Chat) : protocole de discussion instantanée.
      • NNTP (Network News Transfer Protocol) : protocole de transfert de message utilisé par les forums de discussion Usenet
      • SSL ou TLS : protocoles de transaction sécurisée, utilisés notamment pour le paiement sécurisé.
    • UDP : permet de communiquer, de façon non fiable mais légère, par petits datagrammes.
      • DNS (Domain Name System) : système de résolution de noms Internet.
    • ICMP (Internet Control Message Protocol) : protocole de contrôle du protocole IP.

Suite à l’épuisement des adresses IPv4, le protocole IPv6 a été développé. Celui-ci dispose d’un espace d’adressage considérable.

Indépendamment du transfert entre deux points, les routeurs doivent pouvoir s’échanger des informations de routage. Un IGP (Interior Gateway Protocol) et un EGP (Exterior Gateway Protocol) comme BGP (Border Gateway Protocol) satisfont ce besoin.

Considérations sociales[modifier]

Statistiques[modifier]

Article détaillé : Internet dans le monde.

Selon Internet World Stats[12], il a été recensé 1,8 milliard d’internautes en décembre 2009.

220px-Internet_stats

magnify-clip

Évolution du nombre d’internautes entre 1990 et 2004.

220px-Number_of_Internet_hosts

magnify-clip

Évolution du nombre de serveurs entre 1992 et 2006.

220px-BGP_Table_growth.svg

magnify-clip

Évolution du nombre de routes sur Internet depuis 1989




TeamViewer – la solution tout-en-un pour l’accès et l’assistance à distance via Internet

5012013

Avec TeamViewer, vous pouvez vous connecter à n’importe quel ordinateur dans le monde en quelques clics seulement. Vous prendrez ainsi la main sur le PC de votre partenaire comme si vous y étiez ! Voilà pourquoi déjà 100 millions d’utilisateurs dans le monde font confiance à TeamViewer.

LIEN DE TELECHARGEMENT:     http://www.teamviewer.com/fr/index.aspx

 




UN BLOG

5012013

Un blog est un type de site web – ou une partie d’un site web – utilisé pour la publication périodique et régulière de nouveaux articles​, généralement succincts, et rendant compte d’une actualité autour d’un sujet donné. À la manière d’un journal de bord, ces articles ou « billets » sont typiquement datés, signés et se succèdent dans un ordre antéchronologique, c’est-à-dire du plus récent au plus ancien. Les appellations blogue 1 ou cybercarnet2 sont également utilisées, notamment au Québec.

Au printemps 2011, on dénombrait au moins 156 millions de blogs, et pas moins d’un million de nouveaux articles de blog publiés chaque jour3. Toutefois, le nombre de blogs inactifs demeure élevé. Rares sont en effet ceux qui affichent une grande longévité et l’écrasante majorité d’entre eux a été abandonnée par leurs auteurs4.

Un blogueur a aujourd’hui loisir de mélanger textes, hypertexte et éléments multimédias (image, son, vidéo, applet) dans ses billets ; il peut aussi répondre aux questions et commentaires des lecteurs car chaque visiteur d’un blog peut ou bien laisser des commentaires sur le blog lui-même, ou bien contacter le blogueur par courrier électronique.

Étymologie

Blog est issu de l’aphérèse d’un mot composé, né de la contraction de « Web log » ; en anglais, log peut signifier registre ou journal. La francophonie tente de trouver des équivalences ou des alternatives à cet anglicisme, bien que le franglais soit fréquent sur la Toile, notamment parmi ses techniciens, qui rendent souvent compte de la nouveauté par le biais d’anglicismes et de néologismes.

Un blogueur ou une blogueuse (en anglais : blogger) est l’individu qui a l’habitude de bloguer : il écrit et publie les billets, sans entrer dans la composition de tous les commentaires qui y sont associés. La blogosphère est l’ensemble des blogs. Parfois, par métonymie, on désigne l’ensemble des blogs d’une communauté précise : la « blogosphère homosexuelle », la « blogosphère des standards Web ».

Formes francisées

L’utilisation de la graphie identique à la forme anglaise blog, est la plus répandue si bien qu’elle figure dans les éditions 2006 des dictionnaires Le Petit Larousse et Le Robert.

Le processus d’adoption tardive et progressive d’un néologisme s’est déjà vu à de nombreuses reprises dans le milieu informatique, par exemple pour les mots hardware et software dont on a tiré les mots équivalents matériel et logiciel et pour lesquels avaient été proposés des équivalents comme quincaille et mentaille.

L’Office québécois de la langue française (OQLF) soutient la forme graphique francisée blogue ou le néologisme cybercarnet 5. La lexicalisation en blogue permet, selon l’OQLF, d’adapter l’anglicisme aux structures morphologiques et orthographiques du français puisque le suffixe -og n’est pas opérant en français (il faudrait prononcer [blo], un g final n’étant jamais prononcé). Cette lexicalisation permet aussi de créer les dérivations « bloguer, blogueur, bloguesque », etc., d’éviter la confusion « bloggeur » – « blogger », et semble être adoptée progressivement par toutes les communautés. Toutefois, les formes dérivées sont également largement utilisées par ceux qui conservent la graphie « blog ». Le synonyme cybercarnet offre les mêmes possibilités de dérivations tels cybercarneteur, cybercarnetage, cybercarnétosphère…

En France, la Commission générale de terminologie et de néologie a choisi le mot bloc-notes6, ce qui rend son utilisation obligatoire pour les administrations et services de l’État français. Ce mot entre en conflit avec la traduction des mots notepad et notebook déjà utilisés par ailleurs en informatique. De plus, il n’autorise pas de dérivés évidents comme « blogosphère ».

Par ailleurs, d’autres traductions ont émergé çà et là au sein de communautés de blogueurs, sans connaître pour l’instant un grand succès :

  • journal Web, webjournal ou joueb, qui ne distinguent pas le journaliste du blogueur, à tort selon la majorité des blogueurs.
  • journal extime n’est pas issu du Web mais emprunté à l’écrivain Michel Tournier. Il désigne étymologiquement un journal intime public. Ce terme désigne en fait plutôt un usage possible pour un blog (présenter sa propre vie), le blog étant un média possible pour cet usage. Il existe des blogs à usage très différents (par exemple d’analyses de l’actualité).

Quelques juristes blogueurs ont proposé bloig (mélange des mots « blog » et « loi ») comme traduction de l’anglais blawg (formé sur les mots « blog » et « law », ce dernier signifiant « loi »). La sonorité étant changée par le composé de ce nouveau mot, « cybercarnet juridique » et « blogue juridique » sont proposés par l’OQLF.

Présentation et variété de la blogosphère

Que prétend regrouper le terme blog ? Les œuvres d’un dessinateur, les nouvelles activités d’une association, un journal intime anonyme, l’opinion d’une journaliste, le carnet de bord d’un photographe, des satires d’hommes politiques, les vidéos d’une classe de collège, un roman en construction, les anecdotes quotidiennes d’une mère de famille, … La liste est sans fin et surprend par sa diversité. Tout un vocabulaire désigne ses différentes utilisations : vidéoblog (blog vidéo), bdblog ou webcomic(blog BD), photoblog (blog photo), audioblog (blog audio)…

Le concept blog est assez vague pour autoriser toutes ces utilisations. Le phénomène connaît son succès grâce à la grande facilité de publication proposée par des logiciels automatisés de publication, une grande liberté éditoriale (il n’y a généralement pas de contrôleur chargé avant publication de la relecture d’un billet) et une grande capacité d’interaction en temps réel avec le lectorat (via les commentaires et le courrier électronique).

Quelques blogueurs (celui ou celle qui écrit un blog) donnent une régularité à leur blog en écrivant précisément tous les jours, toutes les semaines, tous les mois… Lecteurs et auteurs entreprennent de facto un contrat comme au sein du pacte autobiographique : tout est-il vrai ? Quels sujets aborder ? Tous les combien de temps ? Sous quel angle ? Cependant, plusieurs choses diffèrent d’un pacte autobiographique. D’une part, les lecteurs peuvent généralement commenter immédiatement le contenu d’un blog, au vu et au su de tous. Par ailleurs, le nombre de lecteurs d’un blog varie bien plus rapidement que le nombre de lecteurs d’un livre. En effet, de par la nature des flux et des échanges sur la Toile, un blog peut devenir populaire au sein de la communauté à laquelle il appartient en très peu de temps. Cette variabilité influe parfois sur l’auteur en le poussant par exemple à écrire autour d’un buzz. Cependant, certains blogueurs se sont constitué une audience fidèle relativement nombreuse, étant parfois paré du titre informel de « blogueur influent ».

Il est probable que de nombreux blogs totalement privés (protégés par mot de passe) soient présent sur la Toile ; il est difficile d’en estimer le nombre.

Le vocabulaire intuitif potentiel est vaste et participe à l’engouement autour du phénomène : blogage, blogable, bloguitude, moblog, blogiciel, audioblog, vidéoblog, photoblog, blogogeoisie ou blogeoisie (terme désignant les blogueurs dont les sites sont très visités), bloguien, carnetier/carnetière, carneter (le verbe), carneticiel, carnetable, carnetage, carnetodépendance, carnetosphère, audiocarnet, vidéocarnet, photocarnet, carnetiquette, blook (blouquin), etc.

Identité dans les blogs

Bien que la plupart des blogueurs hésitent à donner une définition claire de leurs intentions, la majorité des blogs s’utilise à des fins d’auto-représentation, et la plupart se forment autour des affects et des idées propres à leur(s) auteur(s). Utiliser un blog représente en effet un moyen de définir son identité, et en particulier une identité en ligne. C’est pour cette raison que la presse et l’opinion populaire sont parfois amenées à fustiger l’égocentrisme des blogs.

Toutefois, l’utilisation des blogs pour interagir avec autrui peut aussi constituer un moyen d’explorer sa propre identité7.

Création du blog

Conception matérielle du blog

Le blog est généralement créé par le blogueur lui-même. La conception peut se faire grâce à une plateforme d’auto-publication et d’hébergement des blogs, gratuitement ou non, ou bien à partir d’un logiciel de publication. Dans ce cas, les utilisateurs peuvent avoir recours à des systèmes de publication assistée par ordinateur (PAO) ou bien à des plateformes d’édition spécialisée. La conception du blog peut aussi se faire indirectement par le blogueur, par l’intermédiaire d’un tiers avec lequel il est lié par contrat (ex: contrat de travail, de stage, contrat de prestation de service).

Mise en ligne du blog

Pour que les internautes puissent consulter le blog, celui-ci doit être hébergé. L’hébergement peut se faire directement sur l’ordinateur de l’éditeur ou plus souvent, auprès d’un fournisseur d’hébergement. Une adresse d’accès doit ensuite être déterminée. Elle ne doit pas porter atteinte aux droits de la personnalité et plus particulièrement au nom de famille, au droit sur les signes distinctifs, au droit d’auteur et à l’ordre public. Du fait de cette mise en ligne, le blogueur reçoit la qualification d’éditeur de services de communication au public en ligne.

Format

Les blogs peuvent adopter des formats bien différents, mais les principaux outils décrits dans ce paragraphe (outils que l’on retrouve sur la plupart des plates-formes de publication de blogs) ne peuvent être codés à la main dans un langage de balisage comme HTML sous peine de devoir affronter des tâches laborieuses et répétitives ; c’est pourquoi l’on utilise bien souvent un système de gestion de contenu qui permet d’automatiser la mise en page du site.

Ce logiciel spécialisé met en forme le texte et les illustrations sous la direction du blogueur, il construit des archives automatiquement, il offre des moyens de recherche au sein de l’ensemble des billets et enfin gère les commentaires des internautes lecteurs. Ces outils permettent ainsi à chacun de publier du contenu, sans connaissances techniques préalables relatives à la conception de sites sur l’internet. Cette facilité d’utilisation a contribué pour une grande partie à l’explosion de l’utilisation des blogs depuis quelques années.

Les blogs sont en fait majoritairement édités grâce à des systèmes de gestion de contenu hébergés et administrés par des entreprises dont les services très populaires allègent considérablement les étapes techniques relatives à la conception de sites Web.

Format commun à la plupart des blogs

Chaque billet est daté et entre donc dans une suite chronologique. Cependant, sur la page d’accueil, la séquence de ces billets est souvent présentée par antéchronologie (les plus récents en premier).

En effet, un blog étant perpétuellement en cours d’écriture, la page d’accueil doit refléter les changements les plus récents ; l’auteur tend à s’adresser à un public qu’il imagine relativement fidèle. Après publication, les billets ne sont habituellement pas modifiés. En cas de besoin, l’auteur publie de préférence un addendum intitulé « mise à jour ». De plus, les mêmes fonctionnalités reviennent souvent car elles sont bien adaptées à une lecture à partir d’un navigateur. Par conséquent, cette présentation uniforme réduit les possibilités créatives dans la conception des blogs.

Depuis les années 2000, le phénomène blog évolue grâce aux améliorations techniques et matérielles de l’informatique et propose de publier toutes sortes de documents multimédias : images, mais surtout sons et vidéos, notamment par l’attrait de services d’hébergement (en particulier YouTube, et Dailymotion côté français) ce qui enrichit très sensiblement la lecture ou devient le format privilégié du blog : voir photoblog et vidéoblog.

Gestion des commentaires

Un blogueur autorise souvent ses utilisateurs à laisser des commentaires, mêmes les plus critiques, suivant un formulaire Web automatisé. Cependant, le blogueur est, selon la législation française, légalement responsable de ce qui est affiché sur son site8 et doit donc, dès qu’il a connaissance de commentaires non conformes à la législation, supprimer les commentaires en question.

Tout blogueur peut également choisir de censurer a priori les commentaires en publiant lui-même ceux qu’il juge valides, ou de censurer totalement tout commentaire (sur un billet ou sur le blog entier). Ce type de solution radicale est essentiellement adopté suite à de trop nombreux trolls ou à du spam. Bien souvent il est également possible de bloquer temporairement l’ajout de nouveaux commentaires, par exemple si l’auteur du blog n’a pas la possibilité de les modérer pendant quelques jours.

De plus en plus de blogs deviennent le centre d’échanges approfondis au sujet duquel se passionnent auteurs et lecteurs (notamment au sujet de l’actualité ou du Web]). Certains blogueurs accordent une place prépondérante aux commentaires laissés sur leur blog, qu’ils considèrent comme la raison d’existence de leurs écrits. Chaque billet revient alors à un nouvel espace public : le blog se transforme en une sorte de forum et peut même recueillir une suite de commentaires sans queue ni tête, l’anonymat aidant au blogo-squat, c’est-à-dire à un bavardage qui s’entretient tout seul, sans rapport avec le billet d’origine.

Les blogs sont souvent centrés sur la publication d’opinions. Ce n’est pas pour rien que c’est l’instrument préféré de beaucoup de journalistes ou d’hommes politiques. Sur ce plan, c’est un intermédiaire entre la page personnelle (l’auteur parle et personne ne répond), et le forum de discussion (tout le monde parle à égalité).

Gestion des liens

Les blogs s’accompagnent souvent d’un système avancé de gestion des hyperliens. Chaque billet s’accompagne d’un lien propre et statique (appelé « permalien »).

Le blogroll (parfois traduit en a blogoliste ou le défileur) en est l’ensemble des liens vers d’autres blogs présentés par un blogueur sur son carnet Web, souvent présenté sur une page dédiée ou sous forme de menu latéral sur la page principale. Avec les techniques de syndication de contenu, telles que RSS ou Atom, il est possible d’inclure directement certains billets sur son propre blog.

Pour illustrer ce qu’est un rétrolien, imaginons qu’Alice et Bob, personnages fictifs, possèdent un blog. Il arrive que Bob écrive des billets intéressants sur son blog, et qu’Alice désire y répondre sur le sien. Dans ce cas, Alice peut, lorsqu’elle publie sa réponse, envoyer au blog de Bob un signal (en anglais pingback) qui déclenche l’apparition automatique sur le billet de Bob d’un rétrolien, c’est-à-dire d’un lien avertissant qu’Alice a publié un billet relatif au billet du blog de Bob. Ainsi, Bob (et les lecteurs de son blog) sont informés de la réaction d’Alice par un court extrait de son billet de réponse et sont libres d’aller le lire. Ce système est quasi-standardisé.

Addendum

D’autre part, un fil RSS ou Atom (appelé aussi « fil de nouvelles ») rassemblant tout ou partie des derniers billets ou commentaires parus est mis à disposition des visiteurs, de façon à leur permettre de tenir à jour leur lecture de manière rapide au moyen d’un logiciel appelé agrégateur.

Au sein de sa diversité, la blogosphère est composée de communautés de blogs qui réunissent des individus aux mêmes tendances politiques, aux mêmes passions… Ces communautés de blogs se lient entre elles grâce à des liens hypertextes. Une communauté peut décider de publier tous les billets concernant un sujet donné sur un site sur l’internet appelé Planet.

Le plus souvent, un blog permet d’afficher les billets selon une structure différente : par thèmes, par mois, ou en effectuant une recherche avec un moteur de recherche.

Enfin, beaucoup d’auteurs de blogs accordent une grande importance à la présentation de leur blog et certains en modifient la présentation graphique régulièrement — ou en proposent plusieurs au choix (on parle de thèmes, d’habillages, de gabarits).

La frontière entre blogs et mailing lists est floue au point de confondre liste de diffusion et blog au sein de l’interface Gmane. Toutefois, tout le monde n’est pas d’accord sur ce point.

Domaines d’utilisation

Blogs d’entreprise

Article détaillé : Blog d’entreprise.

Certaines entreprises mettent en place des « blogs d’entreprise » publics ou à usage interne9. Même si, généralement, les entreprises disposent déjà d’un site Web, le blog d’entreprise permet une communication moins officielle, plus réactive et permettant une interactivité en temps réel.

Les blogs publics permettent de communiquer directement et rapidement avec la clientèle. Un prestataire de services pourra par exemple publier immédiatement un article pour informer sa clientèle en cas de problème technique. Les clients pourront réagir en ligne et éviter ainsi, par exemple, une surcharge du standard téléphonique.

Les blogs d’entreprise à usage interne sont réservés à la communication interne et permettent, grâce aux réactions aux articles, de mesurer le « climat social » d’une entreprise. Le blog d’entreprise permet également de faciliter les échanges entre les collaborateurs d’une entreprise.

Blog pédagogique

Espace numérique prédéfini mais paramétrable, souple, léger, gratuit, nomade et simple d’utilisation, il se caractérise par la mise à disposition des utilisateurs des fonctionnalités multimodales (texte, image, son et vidéo).

Le blog utilisé à des fins pédagogiques permet de développer des pratiques collaboratives et de co-construction à l’intérieur d’espaces éducatifs toujours plus vastes. Il inscrit le travail des enseignants et des apprenants dans une logique possible de conception, de développement et de collaboration dans et hors la classe. Dans cette optique la circulation de l’information doit être pensée et organisée en interne et en externe.

  • Interne par une circulation hypertextuelle (liens, nuage de mots clés)
  • Externe par la gestion des flux RSS, de liste de diffusion et par liens hypertextes.

L’information peut être distribuée en interne en attribuant des rôles aux membres (gestionnaire, auteur, contributeur, lecteur) et en externe par la possibilité de dépôts de commentaires.

À la différence des environnements numériques prescrits (type ENT), le blog peut se définir comme un environnement numérique choisi. Les compétences s’y exercent librement à l’intérieur du cadre légal contraint du statut d’enseignant.

Blog de connaissance

Intermédiaire entre le Blog d’entreprise et de Blog pédagogique, le blog de connaissance permet à un individu ou à une organisation de publier des connaissances structurées dans le cadre d’un processus de synthèse cognitive contrôlé a priori.

Outil émergent de gestion des connaissances et de mémoire projet, il permet notamment – à une équipe projet et/ou une communauté métier, sous la direction d’un modérateur éditorial – l’élaboration consensuelle des connaissances publiques ou privées – organisées en articles élémentaires – d’une compétence métier partagée.

Les articles du blog de connaissance peuvent venir ensuite enrichir un site classique (commercial, éditorial, de culture générale, …).

Blogs d’objectifs personnels

Une nouvelle tendance est l’apparition de blog d’objectifs personnel. Le blog est lancé en vue de l’atteinte d’un objectif à long ou moyen terme, et les articles relatent de l’avancement vers cet objectif. Ce qui est intéressant dans ce cas c’est que le rôle est la matérialisation même de cet objectif et devient un outil de développement personnel performatif. Quelques bloggeurs célèbres l’utilisent sur des thématiques telles que les nouvelles technologies , le développement personnel, ou l’enrichissement. Le blog joue un rôle de motivateur et d’accompagnateur dans l’atteinte d’objectif parfois souvent ambitieux, comme dans le blog 500k où l’auteur décrit comment il pense pouvoir s’enrichir de 500000€ en 4 ans et il partage cela avec son audience, ou comme Objectif Zen, blog sur les habitudes zen qui ont permis à son auteur de réussir dans le milieu.

WarBlog

La notoriété des blogs a notamment été impulsée par les journalistes incorporés dans l’armée US puis des militaires américains lors de la seconde guerre du Golfe en mars 2003. Ces warblogs donnaient l’impression d’une liberté de ton et d’émancipation par rapport aux contraintes éditoriales ou professionnelles. Le warblog est devenu rapidement un symbole. Notons également que des civils irakiens tenaient aussi des blogs très suivis à l’instar de celui de Salam Pax dont certains extraits ont été reproduits dans The Guardian.

Historique

Les blogs sont apparus assez tôt mais n’ont vraiment pris de l’ampleur que récemment en absorbant son public à partir de l’énorme bond en avant de la connectivité Internet dans le monde entier et de la désaffection d’autres médias moins utilisés comme Usenet d’une part et de l’abandon de la complexité des sites perso d’autre part.

Les premiers blogs sont apparus au Canada à la fin des années 1990, comptant parmi ses adeptes des blogueurs comme Jason Kottke, Tristan Louis, Meg Hourihan et Matt Haughey. Leur blog était présenté sous la forme d’un carnet de bord recensant les pages Web (au moyen d’une liste d’hyperliens) que l’auteur avait jugées intéressantes, accompagnées de commentaires. Les blogs ont servi dès l’origine à présenter ce type de contenu. D’ailleurs, ce genre reste toujours populaire aujourd’hui dans la blogosphère.

En France, les premières ébauches de blogs apparaissent dès 1989 sur minitel avec des services tels que 3615 LS* qui permettent de créer une architecture hiérarchisée, un nom de domaine personnalisé (exemple LS*MONSITE) et une messagerie personnelle. Ce service, considéré comme dérogeant à la règle de « un identifiant, un service » est supprimé par France Télécom de manière autoritaire en 199010. Il faudra attendre quelques années pour qu’apparaissent sur Internet les premiers blogs francophones. Par exemple, Montréal, soleil et pluie de Brigitte Gemme en 1995, ou encore La décharge, Le Couac, Mysterious Yanick D., L’organe, Le Scarabée et Ze-Woc en 1996.

Le marché des éditeurs de blog en ligne mit un certain temps à se mettre en place, probablement parce que les blogs pionniers ne généraient pas l’engouement d’aujourd’hui. En effet, Blogger, que l’on considère comme l’un des premiers systèmes de publication et comme instigateur du phénomène, n’est apparu qu’en 1999. Il sera rejoint quelques années plus tard en France par la plateforme Ublog11, créée en 2002, rachetée et développée par Loïc Le Meur, qui la fusionnera en 2007 avec l’américain Six Apart12, qui l’avait acquise en 200413.

Entre temps en 2003 l’allemand 20six développa une activité similaire en France, qui accompagna le développement de premiers blogs éditoriaux, dédiant même une équipe locale de webmastering dans l’animation de ce que l’on appelait déjà une « communauté ». 20six lança notamment les premiers « apéroblogs », ancêtres des « apéros » connus plus tard sur les réseaux sociaux. Mais tombée en désuétude depuis, la plateforme n’a pas connu le destin qu’elle escomptait et affronta plusieurs problèmes techniques, comme en témoignera par exemple en 2007 l’effacement accidentel de plusieurs centaines de notes des blogueurs14.

Dans le même esprit et avec des fonctionnalités comparables à 20six, on peut citer aussi en 2003 le lancement de la plateforme Hautetfort, par Benoit Desavoye.

Côté francophone toujours et dans les médias, Skyblog, apparu en 2002, est l’un des premiers même s’il ne dispose pas de toutes les fonctionnalités habituellement attendues. Il rencontre un succès rapide, particulièrement auprès des adolescents qui y publient leurs photos essentiellement. Le site 20Minutes.fr fut aussi l’un des premiers médias français à proposer une plateforme de blogs à ses lecteurs, depuis son site cœur : une première expérience, d’une ergonomie et d’une gestion assez sommaires, qui devait s’arrêter quelques mois plus tard, avant de se relancer ultérieurement sous la forme des blogs qu’on lui connait aujourd’hui.

Aujourd’hui, les blogs tendent à mettre à profit les fonctions multimédias du Web : photoblog, podcasting, vidéoblog, mobiblog, webcam, etc.

Aspects sociaux

Les blogs tenus par des adolescents sont très nombreux en France (près de 27 820 000 blogs sur Skyblog selon le site fin octobre 2009), et plus généralement sur la Toile. Il existe une certaine fracture numérique entre les générations, qui n’ont pas toutes ni les moyens ni l’envie de s’approprier l’internet de cette manière bien que, techniquement, un blog se consulte comme un site classique, ce à quoi la grande majorité des utilisateurs actuels de l’internet sont familiers. Plusieurs affaires judiciaires ont mis en cause des élèves insultant des professeurs sur leur blog et ont été l’occasion de débats au sein des équipes pédagogiques et dans les médias.

Cependant, la tendance du blog s’étend aux plus âgés. Les blogs relatant la vie en entreprise auraient déjà conduit à plusieurs licenciements, affirment des blogueurs qui ont été licenciés, mais l’affirmation est remise en doute, tout au moins dans le secteur universitaire15.

Le monde politique, des affaires ainsi que le secteur associatif se sont aussi emparés de l’outil, en tant que nouveau média de masse. Les blogs participent donc désormais aux stratégies de communication des entreprises, des associations, des auteurs, des personnes en recherche d’emploi. Les professionnels des sciences de l’information (bibliothécaires, archivistes ou documentalistes) développent un blog spécialisé : le biblioblog.

Certains blogueurs veulent mettre en avant leur indépendance envers les médias traditionnels et leur réactivité, devenant une sorte de cybermédia authentique. Un exemple a consisté à « sortir » des informations avant tous les autres pendant l’affaire Monica Lewinsky. De même, la critique des médias traditionnels, supposés vendus à l’adversaire politique, est un puissant levier pour occuper le terrain des blogs. Cette technique a été utilisée aussi bien par les républicains que par les démocrates lors de la campagne précédant la réélection de George W. Bush de 2004 (voir Rathergate (en)) ou lors du référendum français sur le traité établissant une Constitution pour l’Europe (voir les dossiers d’Acrimed). De la même façon, l’intervention de multiples blogs politiques lors des échéances électorales françaises de 2007 risque de remettre en question[non neutre] diverses pratiques en matière de démocratie (publication anticonstitutionnelle de résultats avant la fin des scrutins, etc.)

Usenet, qui se promettait au même but, a rapidement perdu en popularité avec l’avènement de la Toile, submergé par une masse d’informations douteuses noyant les fameux rares exclusivités et succès contre la censure, systématiquement mise en avant comme justification du phénomène, plombé par les problèmes de spam, excédé par les polémiques incessantes[réf. nécessaire].

Marché de la gestion de blogs

Un moteur de blog est un logiciel qui permet de réaliser des sites Web basés sur le principe du blog. Les deux scripts libres les plus utilisés en France sont Dotclear et WordPress[réf. nécessaire].

Le développement de ces sociétés (OverBlog, Skyblog, Six Apart, Blogger, 20six totalisent des millions de blogs personnels en 2006) est en pleine croissance : le « marché » du blog a explosé au cours des années 2004 et 2005, et tenir un blog est désormais une pratique courante. La plus grosse part du marché international est détenue par Blogger, notamment depuis le rachat de la société par Google. Mais en France, OverBlog est passé premier depuis décembre 2008.

Il s’établit également une concurrence entre blogs et média/sondeurs. Des opinions s’expriment avec force et de manière nombreuse, à la manière d’un sondage. Notamment, Le Monde héberge de nombreux blogs d’opinions par opposition aux autres plateformes où les blogs sont souvent plus personnels ou divertissants – cette particularité s’explique par le caractère payant des blogs du Monde. Des opinions fortes et charismatiques peuvent même finir par diriger une partie de l’opinion ; on l’a vu lors des dernières élections présidentielles américaines et du référendum sur la constitution européenne en France.

La possibilité d’accueillir sur son blog des régies d’annonces en ligne (comme Adsense) ou des liens commerciaux (Affiliation Amazon) permet au blogueur de générer des revenus. Ainsi, par exemple, un blog qui traite de littérature peut rediriger ses lecteurs vers des librairies en ligne. Des annuaires de blogs fonctionnant éventuellement en tant qu’agrégateur personnel sont souvent financés par ces services marketing.

Il est intéressant de voir comment le blog devient un outil indispensable de webmarketing, utilisé par les pure players du net pour renforcer leur image de sympathie et afficher une proximité forte avec leur client. Le blog s’avère un très bon outil pour développer une relation commerciale de confiance avec ses prospects et ses clients car il donne l’impression d’une certaine liberté d’expression au client. Après le cours aux sites internet des années 2000, le blog est sans doute le pionnier des médias socialo-commercial.

Une autre façon de générer des revenus est d’écrire des articles et des avis sur divers produits (sites, logiciels, téléphones, etc.), à la demande des entreprises. Les entreprises ne sont pas toujours intéressées par un avis positif, mais par la génération de trafic vers le site et la diffusion d’un buzz à propos de leur produit. Certains sites offrent un service d’intermédiaire entre les entreprises et les rédacteurs de blogs à cette fin.

Classement des plateformes de blog par visites en France16
Classement blogs Classement Web français (Alexa) Audience Nielsen/Mediamétrie
(visiteurs uniques/mois – déc 2009 )
Nombre de blogs
OverBlog 1e 19e 10 200 000 1 500 000
Blogger 2e - 8 800 000
Skyrock blog 3e 11e 7 400 000 29 000 000
CanalBlog 4e 65e 6 100 000 850 000

Notes et références

  1. Entrée « blogue » [archive] sur Grand dictionnaire terminologique, Office québécois de la langue française
  2. Entrée « cybercarnet » [archive] sur Grand dictionnaire terminologique, Office québécois de la langue française
  3. Chiffres obtenus grâce au site Blogpulse [archive], consulté le 18 février 2011.
  4. When The Thrill of Blogging is gone…, article du New York Times [archive] consulté le 18 février 2011
  5. L’OQLF maintient une entrée dans son dictionnaire officiel à ce sujet : (fr) Entrée « blogue » [archive] sur Grand dictionnaire terminologique, Office québécois de la langue française — Consulté le 12 avril 2011.
  6. Bulletin du 20 mai 2005 [archive] paru au JO.
  7. Vanessa Paz Dennen, « Constructing academic alter-egos: identity issues in a blog-based community », dans Identity in the Information Society, Springer, 2009 [texte intégral [archive], lien DOI [archive]]
  8. Cass Crim 10/05/2005 n°04-84705
  9. Debbie Weil. The Corporate Blogging Book. 2006 [archive]
  10. Mensuel L’Écho du PCW n°23 à 36, de mars 1989 à août 1990
  11. http://www.journaldunet.com/0311/031125ublog.shtml [archive]
  12. http://www.journaldunet.com/ebusiness/le-net/sixapart-ublog-vox-0907.shtml [archive]
  13. http://www.journaldunet.com/0407/040715ublog.shtml [archive]
  14. http://www.zdnet.fr/actualites/20sixfr-perd-dix-mois-d-archives-de-ses-blogueurs-39372371.htm [archive]
  15. Sean Carroll, Sean Carroll, « It’s not the Blog » [archive], Cosmic Variance, 11 octobre 2005
  16. Alexa Top 100 sites en France [archive]. Consulté le 5 janvier 2009.

Voir aussi

Sur les autres projets Wikimedia :

  • blog, sur le Wiktionnaire

Bibliographie

  • Viviane Serfaty, « Les blogs et leurs usages politiques lors de la campagne présidentielle de 2004 aux États-Unis », Mots. Les langages du politique, n° 80 2006/1. [lire en ligne]

Articles connexes

Terminologie des blogs

Liens externes




PROXY

5012013

Un proxy, parfois appelé mandataire, est un composant logiciel qui se place entre deux autres pour faciliter ou surveiller leurs échanges.

Dans le cadre plus précis des réseaux informatiques, un proxy est alors un programme servant d’intermédiaire pour accéder à un autre réseau, généralement internet. Par extension, on appelle aussi proxy un matériel (un serveur par exemple) mis en place pour assurer le fonctionnement de tels services.

Patron de conception en programmation

Article détaillé : Proxy (patron de conception).

Le concept de proxy (patron de conception) peut être utilisé dans n’importe quel programme informatique.

Si deux personnes qui ne parlent pas la même langue veulent communiquer, elles ont besoin d’un interprète. En informatique, deux entités utilisant des technologies différentes peuvent communiquer entre elles grâce à un intermédiaire qui interprète leurs échanges.

Proxy réseau

PROXY 220px-Proxy_concept_fr.svg

magnify-clip

Principe du proxy réseau

Dans l’environnement plus particulier des réseaux, un serveur proxy (proxy server en anglais) est une application informatique client-serveur qui a pour fonction de relayer des requêtes entre une application cliente et une application serveur (couches 5 à 7 du modèle OSI). Les serveurs proxys sont notamment utilisés pour assurer les fonctions suivantes :

  • accélération de la navigation : mémoire cache, compression des données, filtrage des publicités ou des contenus lourds (java, flash);
  • la journalisation des requêtes (logging) ;
  • la sécurité du réseau local ;
  • le filtrage et l’anonymat.

Accès internet

Les fournisseurs d’accès à internet (FAI) peuvent proposer des proxys pour la connexion de leur abonnés.

Il faut pour cela que l’abonné paramètre correctement son système (via un logiciel d’installation fourni par le FAI).

Mais il est également possible que le fournisseur d’accès utilise un proxy transparent (sans configuration par l’utilisateur). Ce proxy permet par exemple au fournisseur d’accès de connaître les habitudes de navigation de leurs abonnés ou de réduire le nombre d’accès effectifs aux sites distants.

Dans le cadre de la sécurité

L’utilité des serveurs proxys est importante, notamment dans le cadre de la sécurisation des systèmes d’information.

Par exemple, il est presque systématique en entreprise ou dans les établissements scolaires que l’accès internet se fasse à travers un serveur proxy. L’internaute ne voit pas la différence, sauf quand il tente de naviguer sur un site interdit, auquel cas il pourra recevoir un message d’erreur : un tel proxy est appelé proxy filtrant. Il se peut aussi qu’une boite de dialogue s’ouvre et demande un identifiant et un mot de passe avant de pouvoir surfer sur internet.

À l’inverse, un proxy peut aussi servir à contourner les filtrages. Supposons le cas d’un pays qui bloque l’accès à certains sites considérés comme « subversifs », mais qui effectue ce filtrage uniquement en se basant sur l’adresse du site que l’on souhaite visiter. Dans ce cas, en utilisant un proxy comme intermédiaire (situé dans un autre pays donc non affecté par le filtrage), on peut s’affranchir du filtrage (sauf bien sûr si l’adresse du proxy est elle-même interdite).

Le principe fonctionne également dans l’autre sens. Supposons qu’un site web n’accepte que les internautes d’un certain pays (exemple concret : un site de campagne présidentielle américain qui n’accepte que les connexions venant des États-Unis). Dans ce cas, en passant par un proxy situé aux États-Unis, un internaute français pourra visiter le site.

Un troisième rôle du proxy est de compliquer la remontée vers l’internaute (anonymisation). Dans l’exemple précédent, on a trompé le site américain qui n’était pas capable de remonter jusqu’à l’internaute à travers le proxy. Certaines techniques avancées permettent de remonter à travers le proxy. Dans ce cas, un internaute pourra utiliser de nombreux proxys en chaîne et stopper la connexion avant que ceux qui le traquent ne soient remontés jusqu’à lui.

Proxy web

220px-WebProxy-wikibook.svg

magnify-clip

Exemple de proxy web

Normalement, l’utilisation d’un proxy complet se fait en configurant son navigateur ou son ordinateur. Mais il existe une catégorie de proxy beaucoup plus simple d’utilisation : les proxys web. Il s’agit d’un simple site web dont la page offre un champ permettant de taper l’adresse du site que l’on souhaite visiter. Une fois saisie, la page demandée est affichée à l’intérieur de la première page. Mais l’adresse qui apparaît dans la barre d’adresse est toujours celle du proxy.

Ce type de proxy est moins puissant qu’un proxy normal. En effet, les pages utilisant des techniques avancées pour se mettre à jour elle-mêmes (AJAX) ne « savent » pas qu’elles passent par un proxy, et donc tentent d’atteindre leurs serveurs directement. Si ce serveur était interdit, alors la requête échoue. Par exemple, le proxy web glype ne permet pas de consulter des sites comme facebook ou youtube. La plupart des proxies web ne permettent pas non plus d’utiliser des sites sécurisés utilisant HTTPS, comme les banques par exemples.

De nombreux proxys web sont disponibles gratuitement sur internet, principalement pour permettre à des internautes de contourner les protections de leurs lieu de surf (entreprise, école, comme expliqué précédemment). La plupart se financent en affichant de la publicité en plus de la page demandée. Mais certains peuvent aussi essayer de capturer les mots de passe ou toute autre information sensible (numéro de carte bancaire) ou même rediriger l’internaute vers un faux site. Il faut donc être extrêmement prudent avant d’utiliser un proxy gratuit sur internet.

Quelques serveurs proxys logiciels

35px-Liste
Cet article ou cette section contient une ou plusieurs listes.
Ces dernières gagneraient à être rédigées sous forme de paragraphes synthétiques.
Pour HTTP
Pour SSH
Pour IMAP
Pour SMTP
  • SMAP : Serveur proxy pour le protocole SMTP.
Multi-protocoles
  • DeleGate : Serveur proxy multi-plateforme multi-usage mandaté au niveau applicatif ou au niveau session.
En PHP
  • Proxys fonctionnant un serveur web, par exemple PHProxy ou Glype.

Historique

Historiquement, la première référence au concept de proxy remonte à Shapiro, ICDCS 19861.

Références

  1. Marc Shapiro. Structure and encapsulation in distributed systems: the Proxy Principle. International Conference on Distributed Computer Systems (ICDCS), pages 198–204, Cambridge, Mass. (États-Unis), mai 1986.

Voir aussi




adresse IP

5012013

Une adresse IP (avec IP pour Internet Protocol) est un numéro d’identification qui est attribué de façon permanente ou provisoire à chaque appareil connecté à un réseau informatique utilisant l’Internet Protocol.

Il existe des adresses IP de version 4 (sur 32 bits, soit 4 octets) et de version 6 (sur 128 bits, soit 16 octets). La version 4 est actuellement la plus utilisée : elle est généralement représentée en notation décimale avec quatre nombres compris entre 0 et 255, séparés par des points, ce qui donne par exemple : 212.85.150.134. Les plages d’adresses IP v4 étant proche de la saturation, les opérateurs incitent à la transition d’IPv4 vers IPv61.

Utilisation des adresses IP

L’adresse IP est attribuée à chaque interface avec le réseau de tout matériel informatique (routeur, ordinateur, modem ADSL, imprimante réseau, etc) connecté à un réseau informatique utilisant l’Internet Protocol comme protocole de communication entre ses nœuds. Cette adresse est assignée soit individuellement par l’administrateur du réseau local dans le sous-réseau correspondant, soit automatiquement via le protocole DHCP. Si l’ordinateur dispose de plusieurs interfaces, chacune dispose d’une adresse IP spécifique. Une interface peut également disposer de plusieurs adresses IP2.

Chaque paquet transmis par le protocole IP contient l’adresse IP de l’émetteur ainsi que l’adresse IP du destinataire. Les routeurs IP acheminent les paquets vers la destination de proche en proche. Certaines adresses IP sont utilisées pour la diffusion (multicast ou broadcast) et ne sont pas utilisables pour adresser des ordinateurs individuels. La technique anycast permet de faire correspondre une adresse IP à plusieurs ordinateurs répartis dans Internet.

Les adresses IPv4 sont dites publiques si elles sont enregistrées et routables sur Internet, elles sont donc uniques mondialement. À l’inverse, les adresses privées ne sont utilisables que dans un réseau local, et ne doivent être uniques que dans ce réseau. La traduction d’adresse réseau permet de transformer des adresses privées en adresses publiques et d’accéder à Internet à partir d’un poste d’un réseau privé.

Adresse IP et nom de domaine

La plupart des adresses IP des serveurs peuvent être converties en un nom de domaine et inversement. Le nom de domaine est plus facilement lisible : fr.wikipedia.org est le nom de domaine correspondant à 91.198.174.225. Il s’agit du système de résolution de noms (DNS pour Domain Name System en anglais).

Classe d’adresse IP

Article détaillé : Classe d’adresse IP.

Jusqu’aux années 1990, on a distingué des classes d’adresse IP qui étaient utilisées pour l’assignation des adresses et par les protocoles de routage. Cette notion est désormais obsolète.

Sous-réseau

Article détaillé : Sous-réseau.

En 1984, devant la limitation du modèle de classes, la RFC 917 (Internet subnets) crée le concept de sous-réseau. Ceci permet par exemple d’utiliser une adresse de Classe B comme 256 sous-réseaux de 254 ordinateurs au lieu d’un seul réseau de 65536 ordinateurs, sans toutefois remettre en question la notion de classe d’adresse.

Le masque de sous-réseau permet de déterminer les deux parties d’une adresse IP correspondant respectivement au numéro de réseau et au numéro de l’hôte.

Un masque a la même longueur qu’une adresse IP. Il est constitué d’une suite de chiffres 1 (éventuellement) suivie par une suite de chiffres 0.

Pour calculer la partie sous-réseau d’une adresse IP, on effectue une opération ET logique bit à bit entre l’adresse et le masque. Pour calculer l’adresse de l’hôte, on effectue une opération ET bit à bit entre le complément à un du masque et l’adresse.

En IPv6, les sous-réseaux ont une taille fixe de /64, c’est-à-dire que 64 des 128 bits de l’adresse IPv6 sont réservés à la numérotation d’un hôte dans le sous-réseau.

Agrégation des adresses

En 1992, la RFC 1338 (Supernetting: an Address Assignment and Aggregation Strategy) propose d’abolir la notion de classe qui n’était plus adaptée à la taille d’Internet.

Le Classless Inter-Domain Routing (CIDR), est mis au point en 19933 afin de diminuer la taille de la table de routage contenue dans les routeurs. Ce but est atteint en agrégeant plusieurs entrées de cette table en une seule.

La distinction entre les adresses de classe A, B ou C a été ainsi rendue obsolète, de sorte que la totalité de l’espace d’adressage unicast puisse être gérée comme une collection unique de sous-réseaux indépendamment de la notion de classe. Le masque de sous-réseau ne peut plus être déduit de l’adresse IP elle-même, les protocoles de routage compatibles avec CIDR, dits classless, doivent donc accompagner les adresses du masque correspondant. C’est le cas de Border Gateway Protocol dans sa version 4, utilisé sur Internet (RFC 1654 A Border Gateway Protocol 4, 1994), OSPF, EIGRP ou RIPv2. Les registres Internet régionaux (RIR) adaptent leur politique d’attribution des adresses en conséquence de ce changement.

L’utilisation de masque de longueur variable (Variable-Length Subnet Mask, VLSM) permet le découpage de l’espace d’adressage en blocs de taille variable, permettant une utilisation plus efficace de l’espace d’adressage.

Le calcul du nombre d’adresses d’un sous-réseau est le suivant, 2taille de l’adresse – masque.

Un fournisseur d’accès internet peut ainsi se voir allouer un bloc /19 (soit 232-19 = 213 = 8192 adresses) et créer des sous-réseaux de taille variable en fonction des besoins à l’intérieur de celui-ci : de /30 pour des liens points-à-point à /24 pour un réseau local de 200 ordinateurs. Seul le bloc /19 sera visible pour les réseaux extérieurs, ce qui réalise l’agrégation et l’efficacité dans l’utilisation des adresses.

Base de données des adresses IP

adresse IP 220px-IPv4_blocs.svg

magnify-clip

Distribution de l’espace d’adressage IPv4 en février 2011.

L’IANA, qui est depuis 2005 une division de l’ICANN, définit l’usage des différentes plages d’adresses IP en segmentant l’espace en 256 blocs de taille /8, numérotés de 0/8 à 255/8.

Les adresses IP unicast sont distribuées par l’IANA aux registres Internet régionaux (RIR). Les RIR gèrent les ressources d’adressage IPv4 et IPv6 dans leur région. L’espace d’adressage unicast IPv4 est composé des blocs d’adresse /8 de 1/8 à 223/8. Chacun de ces blocs est soit réservé, assigné à un réseau final ou à un registre Internet régional (RIR) ou libre4,5. En février 2011, il ne reste plus aucun bloc /8 libre.

En IPv6, le bloc 2000::/3 est réservé pour les adresses unicast globales6. Des blocs /23 sont assignés aux RIR depuis 1999.

Il est possible d’interroger les bases de données des RIR pour savoir à qui est assigné une adresse IP grâce à la commande whois ou via les sites web des RIR.

Les RIR se sont regroupés pour former la Number Resource Organization (NRO) afin de coordonner leurs activités ou projets communs et mieux défendre leurs intérêts auprès de l’ICANN (l’IANA), mais aussi auprès des organismes de normalisation (notamment l’IETF ou l’ISOC).

Plages d’adresses IP spéciales

IPv4

Certaines adresses sont réservées à un usage particulier (RFC 5735) :

Bloc Usage Référence
0.0.0.0/8 Adresse réseau par défaut RFC 1700
10.0.0.0/8 Adresses privées RFC 1918
100.64.0.0/10 Espace partagé pour Carrier Grade NAT RFC 6598
127.0.0.0/8 adresse de bouclage (localhost) RFC 1122
169.254.0.0/16 adresses locales autoconfigurées (APIPA) RFC 3927
172.16.0.0/12 Adresses privées RFC 1918
192.0.0.0/24 Réservé par l’IETF RFC 5736
192.0.2.0/24 Réseau de test TEST-NET-1 RFC 5737
192.88.99.0/24 6to4 anycast RFC 3068
192.168.0.0/16 Adresses privées RFC 1918
198.18.0.0/15 Tests de performance RFC 2544
198.51.100.0/24 Réseau de test TEST-NET-2 RFC 5737
203.0.113.0/24 Réseau de test TEST-NET-3 RFC 5737
224.0.0.0/4 Multicast RFC 5771
240.0.0.0/4 Réservé à un usage ultérieur non précisé RFC 1112
255.255.255.255/32 broadcast limité RFC 919
Adresses privées 

Ces adresses ne peuvent pas être routées sur Internet. Leur utilisation par un réseau privé est encouragée pour éviter de réutiliser les adresses publiques enregistrées. Il faut toutefois prévoir qu’il n’y ait pas de doublon lors de l’interconnexion de réseaux privés non prévue lors de leurs créations.

Adresses de diffusion 
  • L’adresse 255.255.255.255 est une adresse de diffusion.
  • La première adresse d’un réseau spécifie le réseau lui-même, la dernière est une adresse de diffusion (broadcast).
Adresses multicast 

En IPv4, tout détenteur d’un numéro d’AS 16 bit peut utiliser un bloc de 256 adresses IP multicast, en 233.x.y.z où x et y sont les 2 octets du numéro d’AS (RFC 3180).

IPv6

Article détaillé : Adresse IPv6.

Les plages d’adresses IPv6 suivantes sont réservées (RFC 5156) :

Bloc Usage Référence
 ::/128 Adresse non spécifiée RFC 4291
 ::1/128 Adresse de bouclage RFC 4291
 ::ffff:0:0/96 Adresse IPv6 mappant IPv4 RFC 4291
2000::/3 Adresses unicast routables sur Internet RFC 3587
2001::/32 Teredo RFC 4380
2001:2::/48 Tests de performance RFC 5180
2001:10::/28 Orchid RFC 4843
2001:db8::/32 documentation RFC 3849
2002::/16 6to4 RFC 3056
fc00::/7 Adresses locales uniques RFC 4193
fe80::/10 Adresses locales lien RFC 4291
ff00::/8 Adresses multicast RFC 4291
Adresses spéciales
  •  ::/128 indique une adresse non spécifiée. Celle-ci est illégale en tant qu’adresse de destination, mais elle peut être utilisée localement dans une application pour indiquer n’importe quelle interface réseau ou sur le réseau dans une phase d’acquisition de l’adresse.
Adresses locales

En IPv6, les adresses locales de site fec0::/10 étaient réservées par la RFC 3513 pour le même usage privé, mais sont considérées comme obsolètes par la RFC 3879 pour privilégier l’adressage public et décourager le recours aux NAT. Elles sont remplacée par les adresses locales uniques fc00::/7 qui facilitent l’interconnexion de réseaux privés en utilisant un identifiant aléatoire de 40 bits.

En IPv6, les adresses fe80::/64 ne sont uniques que sur un lien. Un hôte peut donc disposer de plusieurs adresses identiques dans ce réseau sur des interfaces différentes. Pour lever une ambiguïté avec ces adresses de scope lien local, on devra donc préciser l’interface sur laquelle l’adresse est configurée. Sous les systèmes de type Unix, on ajoute à l’adresse le signe pourcent suivi du nom de l’interface (par exemple ff02::1%eth0), tandis que sous Windows on utilise le numéro de l’interface (ff02::1%11).

Adresses expérimentales obsolètes
  • 3ffe::/16 et 5f00::/8 étaient utilisés par le 6bone entre 1996 et 2006.
  •  ::a.b.c.d/96 (où a.b.c.d est une adresse IPv4) étaient des adresses compatibles IPv4 définies dans la RFC 1884 mais rendues obsolètes par la RFC 4291 en 2006.

Épuisement des adresses IPv4

Article détaillé : Épuisement des adresses IPv4.

La popularité d’Internet a abouti à l’épuisement en 2011 des blocs d’adresses IPv4 disponibles, ce qui menace le développement du réseau.

Pour remédier à ce problème ou repousser l’échéance, plusieurs techniques existent :

  • IPv6, dont la capacité d’adressage est considérable7,
  • NAT, qui permet à de nombreux ordinateurs d’un réseau privé de partager une adresse publique, mais qui complique le fonctionnement de certains protocoles,
  • les registres Internet régionaux ont développé des politiques d’affectation d’adresses plus contraignantes, qui tiennent compte des besoins réels à court terme. L’affectation de blocs d’adresses plus petits diminue cependant l’efficacité de l’agrégation des adresses.
  • la récupération des blocs attribués généreusement autrefois, certaines entreprises disposent ainsi d’un bloc /8, soit plus de 16 millions d’adresses publiques.

Identification par adresse IP

Article connexe : Loi Création et Internet#L’identification par l’adresse IP.

Celle-ci pose problème8, pour plusieurs raisons :

  • dans certains cas, une adresse IP publique peut être utilisée par plusieurs personnes simultanément et indépendamment (voir NAT et Carrier Grade NAT) ;
  • il est possible d’usurper l’adresse IP d’autrui dans la source d’un paquet IP dans la mesure où les routeurs utilisent normalement l’adresse destination, l’établissement d’une connexion TCP implique cependant un routage bidirectionnel correct ;
  • possibilité de dérouter les systèmes de traçage[réf. nécessaire].

Notes et références

  1. IPv6 : opérateurs et hébergeurs en plein chantier [archive], sur le site zdnet.fr du 15 avril 2011
  2. Configuring Multiple IP Addresses and Gateways [archive]
  3. RFC 1518 [archive], An Architecture for IP Address Allocation with CIDR
  4. RFC 2373 [archive], IP Version 6 Addressing Architecture
  5. IPv4 address space [archive]
  6. IPv6 Unicast Address Assignments [archive]
  7. Internet : nouvelle norme pour les IP [archive], Le Figaro, 6 juin 2012.
  8. Des problèmes juridiques notamment, comme le montre cet article en s’interrogeant sur l’adresse IP au regard de la loi informatique et libertés [archive]

Annexe

Articles connexes

Références

Les définitions des adresses IP versions 4 et 6, la notion de classe et la notation CIDR sont documentées dans les Request for comments suivants (en anglais) :

Communes

IPv4

IPv6

La liste des RIR ainsi que la table d’allocation des adresses se trouvent sur la page Number Resources de l’IANA.

Liens externes      by yassir d’aprés wikepedia

 




Tendance Sécurité : Abandonner La stratégie réactive au profit d’une approche offensive

4012013

La 6 eme édition du McAfee Security Journal lance un « appel aux armes » et incite le secteur de la sécurité à remettre en question ses valeurs et préceptes fondamentaux. La multiplication et la sophistication des outils et des techniques du cybercrime se poursuivent à un rythme alarmant. Les cybercriminels, à juste titre peu inquiets du retour de leurs actes, prospèrent comme jamais. Probablement que nous ne leur avons jamais véritablement donné la moindre raison d’avoir peur.

Tendance Sécurité : Abandonner La stratégie réactive au profit d’une approche offensive security_journal_summer10

La sécurité informatique doit passer à l’offensive Par Jeff Green
La sécurité informatique est un secteur mené par des personnes d’exception, certainement parmi les plus brillantes que je connaisse. Totalement impliquées dans leur travail, hautement qualifiées et d’une intelligence remarquable. Mais qu’en est-il du secteur lui-même ? Est ce que tout le monde adopte le bon modèle et les bons principes ?
Démantèlements : bannissements et frappes paralysantes pour lutter contre l’ennemi- Brian Krebs
Les technologies de la sécurité que la plupart d’entre nous utilisent quotidiennement (des antivirus aux pare-feux en passant par les périphériques de détection des intrusions) sont réactives. En d’autres termes, elles ne sont généralement efficaces qu’une fois une nouvelle menace identifiée et classifiée. Le problème est que, dans l’intervalle, un nombre incalculable d’individus et d’entreprises se retrouvent victimes de ces rôdeurs anonymes.
Craquage d’applications Ryan Permeh et Brandon Edwards
« Connais ton ennemi et connais-toi toi-même ; eussiez-vous cent guerres à soutenir, cent fois vous serez victorieux. »
L’effet observateur mis en cause Felix « FX » Lindner
Le paradigme de la détection et de la prévention est un de ces concepts de la sécurité informatique très intéressants et facilement compréhensibles par tout un chacun.
La coopération, composante essentielle de la sécurité sur Internet Igor Muttik
L’efficacité des tactiques de sécurité offensives exige la coopération de nombreux acteurs. Utilisateurs, chercheurs, journalistes, législateurs et forces de l’ordre : tous jouent un rôle important dans la lutte contre les cybercriminels.
Pourrons-nous un jour résoudre le problème du spam ? Sam Masiello
Depuis la distribution du premier message de spam via le réseau Arpanet par un agent du marketing de la société DEC en 1978, le phénomène du spam a connu une explosion spectaculaire et ne cesse de gagner en sophistication.
Au-delà des démantèlements : l’offensive en profondeur- Joe Stewart
La prolifération des réseaux de robots a atteint des niveaux sans précédent alors que le nombre d’arrestations liées à ces crimes reste limité.
Les leçons du Web malveillant David Marcus
Ces dernières années, mon collègue et ami Shane Keats a été le principal chercheur et auteur du rapport de McAfee Labs, Cartographie revue du Web malveillant.







Le club minecraft |
Réseaux Sociaux et printemp... |
88mulberry |
Unblog.fr | Annuaire | Signaler un abus | Caraterbaruku
| Prix Discount Maroc
| Nikeshoxfr