Appel à l’acentralisation
Tweet |
On dit souvent qu’Internet est né de la volonté de certaines personnes de supprimer tout centre névralgique d’un réseau informatique. Ce n’est que partiellement vrai mais c’est sans doute ce que retiendront les livres d’histoire dans 100 ou 200 ans.
40 ans après le premier paquet envoyé sur ARPANet, que reste-t-il de ce but originel ? Pas grand chose à vrai dire. Internet est très majoritairement constitué de gros datacenters hébergeant le contenu et de gros réseaux le distribuant à quelques 450 millions de foyers connectés de par le monde, un minitel géant, voir, réflexion faite, une télé géante, les gens interagissant de moins en moins avec l’outil (sans parler des interactions entre personnes).
Et par « gros », on peut considérer que, sur l’ensemble du contenu disponible dans les datacenters en question, une poignée d’acteurs concentrent 90% du trafic traversant le réseau. De même, localement, dans chaque pays, généralement moins de 4 ou 5 acteurs majoritaires se partagent 99% de la population connectée.
Et au milieu de tout ceci, on trouve le peer 2 peer, apparu aux yeux du monde en 1999 avec Napster mais qui, en réalité, est la base même d’Internet (des machines discutant entre elles), sauf qu’a l’arrivée du célèbre Napster, les machines des utilisateurs se sont mises a discuter entre elles pour échanger des données.
Rien de révolutionnaire, ça se faisait déjà avant, c’est toujours faisable après, simplement, le peer 2 peer (dans le sens « logiciel de partage de fichier ») tel que tout le monde le connait a été mis à la porté de l’utilisateur quelconque, chose qui était jusque la réservé aux geeks et nerds de tous poils.
Aujourd’hui, le peer 2 peer est en chute libre, probablement suite aux assaut juridique répétés des « ayants droits » et tout ceci au profit de plateformes centrales qui, selon certains, pourraient être rachetés par les-dits « ayants droits », ce qui finirai pour de bon de boucler la boucle. Non seulement la licence globale est déjà la, mais en prime elle ne profite pas encore aux intérêts des majors (à moins que les actionnaires des sites de directdownload bien connus ne soient autre que … non, je dois etre parano …)
Tout ça pour finir par constater que la quasi totalité du contenu (même vos photos de vacances) sont aujourd’hui tenues (et exploité) par une poignée de multinationales et que ça a l’air de ne faire ni chaud ni froid à presque tout le monde. De l’autre coté du réseau, 7 fournisseurs d’accès français qui ont 99% des internautes sous leur houlette sont juridiquement contraint de bloquer des sites web pendant que des centaines d’autres n’ont aucune espèce d’obligation de ce genre.
Que trouvera-t-on, dans les livres d’histoire, à propos d’Internet après 2010 ?
Ne mettez plus vos vidéos que sur youtube, prenez au moins la peine de les dupliquer sur vimeo et dailymotion. Ne collez plus votre blog chez skyblog, non seulement l’interface est laide à souhait mais en plus votre contenu n’est pas mis en avant, essayez ifrance ou une recherche « hébergeur blog » la ou vous savez ou mieux, poussez votre curiosité jusqu’à tenter l’autohébergement. Si vous voulez vraiment que la terre entière admire vos photos de beuverie, ce n’est pas sur facebook qu’il faut les mettre mais sur votre disque dur chez vous avec un serveur web devant, au moins, vous pourrez les enlever le jour ou un recruteur viendra fouiller dans votre passé numérique.
Si rien une once d’envie vous poussait entre les oreilles, n’hésitez pas à venir au devant des gens qui font l’internet associatif d’aujourd’hui. Nous avons tout ce qu’il faut pour vous aider à vous autoconnecter et/ou vous autoheberger, il ne nous manque que votre envie d’y aller.
« Si vous voulez vraiment que la terre entière admire vos photos de beuverie, ce n’est pas sur facebook qu’il faut les mettre mais sur votre disque dur chez vous avec un serveur web devant, au moins, vous pourrez les enlever le jour ou un recruteur viendra fouiller dans votre passé numérique. »
Mouais faut voir:
A partir du moment ou la photo peut être vue, elle peut être copié & stockée ailleurs, que ce soit sur un moteur de recherche « Google Image » si t’a oublié le /robot.txt, ou sur le PC d’un pote qui trouve la photo rigolote ; et la met sur SON blog parce que c’est lui qui mort de rire en arrière plan.
Demander à ton pote de virer la photo parce que tu cherches du boulot, c’est faisable. Demander à Google…
C’est valable dans une moindre mesure pour les textes des blogs, même si Google a déjà une fonction qui cache le contenu d’une page, qu’il te met en bas prêt de ses résultats, ou encore le site « web archive ».
Pour le moment , le fichier robot.txt permet de s’en protéger… selon la bonne volonté du moteur.
Je suis *pour* l’auto-hébergement, ne te méprend pas. D’ailleurs je travaille pas mal sur le projet de NoBox de FDN, des annonces & une démo pour bientôt à base de Plug ARM. Mais il être conscient des limites.
100% d’accord, mais il reste tout de même plus simple de contrôler la diffusion d’une image ou d’un écrit quand on l’héberge soi même (pas nécessairement en auto hébergement, d’ailleurs) plutot que quand on la met sur facebook.
NB : je ne suis pas certain que le robot.txt empêche google de leecher l’ensemble des sites trouvés. Pour ma part, j’ai quelques sites ou je traque furieusement les referer pour être bien certain qu’ils ne seront jamais indexé nulle part …
Je pense qu’il y 2 choses pour éviter que Google indexe un site web en plus du respect du robots.txt, e concept de deep web ( http://fr.wikipedia.org/wiki/Web_profond ) et le spam.
Le spam, c’est facile, il y a des tas de techniques que Google sanctionne pour les gens qui veulent truquer leur position dans les résultats. Il suffit donc d’utiliser les plus inefficaces pour que Google décide de nous exclure. Je me demande même pourquoi personne ne fait de chantage sur les sites commerciaux avec ce genre de méthode ( car si 15 000 sites pornos pointent sur Amazon du jour au lendemain, je pense que ça va avoir un impact ).
Le deep web, c’est pareil, il suffit juste de faire un site avec énormément de page, et de laisser le spider se perdre au fin fond du site.
De manière plus subtile, jouer sur l’user agent pour donner des informations différentes est une autre stratégie à explorer.
Ca relegue au fin fond des demandes faites au moteur mais ca n’empeche pas l’
Ca relegue au fin fond des demandes faites au moteur mais ca n’empeche pas l’indexation… L’ildeal doit rester le blacklistage des crawlers google … Encore faut-il avoir les ip :)
Leave your response!
Dossiers
Derniers articles
Licence
Les contenus de ce blog sont, hors citations et images, sous licence Creative Common BY
Identité Ğ1
Catégories
Archives
Tags
Les autres
Mon bordel à moi
Recherches
Commentaires
Articles les plus commentés