Archives par mot-clé : Internet

La plaie sur Internet : les faux avis

Ce n’est pas un nouveau sujet, loin de là. J’en parlais déjà en 2013 😉 Et le sujet est encore bien plus vieux, il est apparu dès le début d’Internet en fait.

Mais reprenons. Sur Internet, ce qui est cool, c’est le côté collaboratif. Tout le monde peut participer, tout le monde peut donner son avis.

Ce paradigme a été mis en musique de différentes façons. Wikipedia est l’exemple parfait du travail collaboratif. Des milliers de bénévoles donnent de leur temps pour construire… le plus grand encyclopédie jamais réalisé ! Et cette connaissance, colossale, est accessible gratuitement. Génial.

Génial sauf que… Sauf qu’il y a de gros enjeux derrière. Une boite peut souhaiter effacer certaines infos « délicates », un responsable politique souhaitera réécrire une partie de son histoire…

A partir du moment ou il y a des moyens (i.e. de l’argent) les solutions finissent toujours par émerger.

Sur Wikipedia, la solution passe par des boites spécialisées. Ces boites emploient des pros sur des domaines pointus (docteur en histoire, en philo, …) et ces pros sont payés pour contribuer « gratuitement » sur Wikipedia. Donc 95% de leur temps, ces experts vont se créer une virginité en effectuant un vrai travail pour enrichir objectivement Wikipedia.

Et les 5% du temps restant me direz vous ? Ah c’est là que les choses changent. Ces pros utiliseront une petite partie de leur temps pour falsifier des articles, à la demande de clients.

Ces boites là, qui emploient les pros donc, ont donc cette double activité, 95% d’enrichissement « honnête » pour 5% de falsification.

Pourquoi dépenser 95% du temps à faire du boulot « gratuit » ? Uniquement pour avoir une vraie bonne réputation sur Wikipedia.

J’avais entendu que c’était la raison pour laquelle l’un des deux fondateurs de Wikipedia était parti, il y a quelques années maintenant.

Récemment, j’ai entendu qu’Amazon devait faire face également à de faux avis.

Pourtant, Amazon a investi pour rendre les avis de qualités. Par exemple, ils accordent beaucoup plus de poids à un avis sur un produit, venant d’un client ayant acheté ce produit.

Mais Amazon est une place de marché, et les vendeurs ont un énorme intérêt à avoir des avis positifs, rapidement.

Si votre produit a une très bonne note, portée par « pleins » d’avis, ce produit remontera en tête de liste, et il se vendra bien mieux…

Mais comment avoir de faux avis sur Amazon ? Les vendeurs ont trouvés la solution : ils contactent des clients potentiels, et leur offre le produit, contre un avis positif.

Il en faut pas des milliers d’avis : 10 ou 15 c’est déjà très bien. Investir en donnant 10 ou 15 produits, pour en vendre des milliers, le calcul est vite fait : c’est hyper rentable !

Comment tout ça va évoluer ? Je ne sais pas 😉 J’imagine qu’Amazon doit faire des enquêtes pour détecter ces cas là, et dégager les vendeurs indélicats. On peut imaginer que les mécanismes de blockchain peuvent également être mis à contribution pour mieux garantir l’origine d’un avis.

A suivre !

 

 

 

Le n’importe quoi de la loi sur les Cookies

C’est la fête sur presque tous les sites web européens :

Le festival des cookies

Un bandeau, en haut ou en bas, vous informe que le site utilise des cookies pour son fonctionnement.

Si jamais vous n’avez vraiment rien à faire, vous pouvez cliquer sur le lien « en savoir plus ». Vous arrivez sur une page ou manifestement, quelques juristes se sont fait plaisir

Capture d’écran 2015-06-19 à 18.00.48

A quoi tout cela sert-il ?

Mais à rien, à rien du tout.

Enfin c’est pas tout à fait vrai : ça sert à :

  • Faire peur aux internautes en leur parlant de quelque chose qu’ils ne comprennent pas et qui est plutôt technique
  • Enrichir les juristes qui ont du plancher sur cette lois
  • Enrichir les intégrateurs, qui ont du mettre ça en place

Et impossible de se débarrasser de cette verrue : si vous nettoyez vos cookies, l’avertissement revient 🙁

C’est une directive européenne qui a imposé à tous les pays européens « d’informer les visiteurs de l’usage des cookies ».

Cela n’aide en rien les visiteurs, cela ne donne aucune marge de manœuvre aux internautes. Juste, ça fait ch…

Bon, vous l’aurez compris, ce genre de loi m’énerve. L’intention était louable (respect de la vie privée, limiter les usages abusifs du tracking cross domaine) mais l’application n’a aucun sens…. Mais pourquoi tout le monde applique une loi débile ?

Place de la toile : La meilleure émission du numérique ?

Je vais tout vous dire :

Ma femme écoute France Culture, alors que moi je suis plutôt France Inter.

Donc, chacun son tour, quand on alume la radio, on remet « sa » station.

Sauf que l’autre fois, avant d’avoir le temps de changer, je suis tombé sur une émission qui, forcément, m’a intéressé. On y parlait de … la fin de l’internet. Rien que ça !

Le gars qui en parlait savait vraiment de quoi il parlait : pas comme certains journalistes qui survolent leurs sujets…

Là, on est entre pros, les questions posés et les réponses sont de très bons niveau.

L’émission s’appelle Place de la toile, réalisé par Xavier de la Porte. C’est à ma connaissance la meilleure émission sur le numérique.

Je suis depuis abonné au podcast. J’ai pu écouter par exemple une émission sur le bitcoin. Là encore, j’ai appris pas mal de choses sur ce sujet pas si simple à appréhender.

Le bruit, le problème majeur d’Internet

Il y a quelques dizaines d’années, on pouvait dire qu’accéder à l’information n’était pas forcément facile.

Et puis Internet est arrivé.

On a pu se dire que cela allait réellement rendre l’information disponible pour (presque) tous.

Et c’est le cas… Sauf que le « bruit » fini par tout recouvrir.

Le bruit ?

Le bruit, c’est toute cette information « bidon » qui couvre la « vrai » information.

Le bruit, se sont les pros de la communication qui cherchent à étouffer une information dérangeante.

Mais sur Internet, ces pratiques se multiplient.

L’exemple dans notre domaine, ce sont les faux avis d’utilisateurs.

Bon, je n’ai pas particulièrement d’actualité sur le sujet, mais je me faisais la réflexion : ce sujet est de mon point de vue un sujet complètement majeur : comment Internet va-t-il évoluer, avec cet énorme brouhaha ?

J’ai cette image en tête, avec des gens qui ont vraiment quelque chose à dire, et des gens qui cherchent cette information… Sauf qu’entre eux, il y a une foule, compacte, bruyante.

 

Quand l’incompétence va…

J’étais aujourd’hui avec une équipe, qui m’a réconté une anecdote qui m’a bien fait rire…

La boite est une boite plutôt technique.

Ils découvrent par hasard qu’une grosse boite n’a pas acheté son nom de domaine en .com.

Ils l’achètent, comme ça, pas pour faire de l’argent, ni rien, mais pour voir.

ça ne rate pas, ils reçoivent un courrier d’avocat, quelques mois après, leur demandant de lacher le domaine, avec force de menaces.

Ils essayent d’expliquer que ce n’est pas la bonne méthode, parce que si ils lachent le domaine, un autre va le récupérer. Il demandent un interlocuteur technique pour pouvoir effectuer le transfert technique.

L’autre partie, via l’avocat, ne comprend rien, et augmente la pression avec toujours plus de menaces.

La boite technique fini par se lasser, et ils lachent le domaine…

Bien sûr, le domaine est aussitôt récupéré, par une boite asiatique en l’occurrence, et donc avec une récupération bien plus complexe !

Evolution du modèle de programmation du web – Retour vers le futur

Au début, avant Internet, il y avait des ordinateurs qui fonctionnaient en mode client serveur.

Le serveur gérait principalement les données, et l’applicatif tournait sur le client.

Après, il y a eu Internet.

Comme les premieres versions du HTML étaient très pauvres, l’application c’est naturellement déportée vers le serveur. C’est ce qu’on appelle le serveur d’appication.
Dans ce modèle, le serveur fournit à peu près tout : il livre au client une page complète, que le client n’a qu’à afficher. L’intelligence côté client est très légère.
Cela ressemble à ce qu’on fait sur les gros système (CICS par exemple : vous savez, ces écrans textes avec les caractères en vert qu’on voit si on regarde les écrans des vendeurs dans pas mal de boites…).

Mais le web s’est enrichi, avec le Javascript, et la possibilité de développer des applications bien plus intelligentes, bien plus sophistiquées, et surtout bien plus agréables à utiliser.
Cela veut dire que, dans ce modèle, l’intelligence est répartie entre le serveur et le client. Plus la couche Javascript est évoluée, et plus l’intelligence est déportée vers le client.

Avec les évolutions actuelles du web, on peut légitimement penser que c’est bien le sens de l’évolution pour les prochaines années : revenir en fait à un modèle ou l’intelligence applicative est principalement sur le poste client.
Côté serveur, on gère principalement la couche des données.
Sur un modèle en trois couches MVC (modèles / vue / contrôleur), les deux autres couches, vue et contrôleur sont donc déployée sur les postes clients.

Prenons un exemple : un site e-commerce au hasard 😉

Ce que doit gérer le serveur, c’est bien l’ensemble des données du système :

  • Le catalogue, avec l’ensemble des produits, et toutes les informations associées à ce catalogue : description, prix, stock, …
  • La base des clients
  • La base des commandes

Certaines de ces données peuvent, pour des raisons de performance, être gardées sur le poste client. Exemple : la hiérarchie des produits. Mais les données qui « bougent » doivent absolument être stockées côté serveur. Exemple : le stock produit.
Tout le reste pourrait très bien être géré côté client.

Avantages de ce modèle :

L’application peut être bien plus évoluée que ce qu’on fait en web classique. On peut avoir une bonne idée de ce modèle, avec, par exemple, la navigation dans un catalogue en Ajax : quand on applique un filtre, la page n’est pas raffraichie, seuls les produits changent. C’est un peu la préhistoire du modèle que je présente.

Autre avantage : la consommation, en bande passante, est bien plus optimisée. Une fois l’applicatif chargé sur le poste client, on n’échange que les données nécessaires. Pas besoin de renvoyer l’ensemble de la template du site à chaque page.

Les technologies sont assez développées pour permettre de mettre en oeuvre ce modèle dès aujourd’hui.

En fait, ça ne serait pas une bonne idée ;).

Pourquoi ?

Parce que ce modèle n’est pas très « SEO friendly ». Comment google peut il indexer un truc pareil ?

La réponse est connue, c’est la même que pour le Flash : il faut faire deux versions du site. Une « dynamique » et une sans javascript. C’est accepté par Google, car la version sans Javasript est bien accessible à ceux qui le souhaitent, et c’est en particulier le cas pour les mal et non voyants.

L’autre problème, c’est que, même si les technologies permettent « théoriquement » de mettre en oeuvre ce modèle, les outils, les frameworks ne proposent pas encore les bons outils pour faire ça sans avoir à tout réinventer.

Donc, c’est un peu tôt pour se lancer à fond là dedans, mais cela donne, je pense, une bonne idée de « là ou l’on va ».

(article issu d’une discussion passionnante avec Pieroxy)

Quelle valeur pour l’information ?

Derrière cette question banale, je veux parler, en particulier, de la révolution qui touche le journalisme.

Donc, quelle valeur pour l’information ?

C’est bien la question de la presse, qui, si on simplifie, cherche, trouve et présente de l’information, et la vend, via différents médias.

Ce système marchait depuis des années, des siècles en fait…

Mais, vous me voyez venir, quelle est la valeur du scoop, dans un monde ou pas mal de monde a son mobile connecté sous la main, et peut capturer l’information, directement à la source ?

Et si c’est un journaliste qui arrive quand même à trouver une info inédite, quelle est la valeur de cette information, qui va être reprise, qui va « buzzer » a la vitesse de … l’internet ?

Quand on pense aux grands évènements récents, on a eu plus d’info, bien plus vite, sur Twitter et autres réseaux sociaux que dans la presse…

Donc, la valeur du scoop est en chute libre. Ce n’est plus là qu’il y a de la valeur à créer, tout simplement.

Mais alors, comment créer de la valeur ?

La valeur existe bien sûr ! Mais elle c’est déplacée.

La valeur aujourd’hui, est, de mon point de vue sur :

  • La qualité des informations
  • La qualité des analyses
Ce que je veux dire, c’est que, quand les journaux ne font que reprendre a peu près les mêmes informations, ils « creusent » leur propre fin.
Regardez l’affaire DSK : les premiers jours, c’était un grand n’importe quoi. Les journaux n’avaient aucune information, ne savaient rien sur Nafissatou Diallo. Cela n’empêchait pas grand monde de parler, pour dire… rien et n’importe quoi, en boucle.
Les journalistes n’ont, en général (il y a bien sûr des exceptions, heureusement), pas fait leur travail, travail à valeur ajouté pour prendre du recul, chercher à recouper les informations, mieux analyser.
Ceci dit, en restant sur cet exemple, on peut y voir une contradiction : mettre cette affaire en avant, ça a été, c’est encore le moyen de doper les ventes.
Certe, mais je pense que cette analyse est trop court-termiste. Vous créez du trafic, vous vendez un peu plus, mais la valeur ajouté n’y est pas. C’est un feu de paille.
Maintenant, c’est toujours très très dure de gérer une activité qui est en pleine révolution.
De mon expérience, la plupart des sociétés, au sens « groupe d’individus » (entreprises, …), n’arrivent pas à bien négocier un tel changement.
Pour mieux expliquer ça, j’ai rien de mieux que l’image de l’évolution, avec des espèces qui apparaissent, parce qu’elles sont bien adapté au contexte, à un moment donné. Puis le contexte évolue. L’espèce ne s’adapte pas assez vite, elle va simplement s’éteindre. D’autres prendront le relai.
Pour les entreprises, en général, c’est la même chose. Les entreprises qui s’adaptent sont très très rares.

CNN – Membres du Conseil National du Numérique

Quel sera l’avenir de ce groupe ?

Je n’en ai pas la moindre idée, et je souhaite beaucoup de bonheur à ce groupe, et en particulier à Gilles Babinet, que j’ai croisé au moment de la création d’Eyeka.

J’ai fait un petit tableau des profils :

Mes remarques en vrac :

L’ensemble des opérateurs de télécom sont présents : SFR, Bouygues, Free, Orange… Normal ou pas ? Je ne sais pas… Ce sont des acteurs importants, puisqu’ils assurent « la tuyauterie » de l’internet, mais, à ce compte là, pleins d’autres acteurs interviennent : les hébergeurs, …

Je pense que c’est très bien que la Fevad soit représenté !

Gilles est, à mon sens, un bon représentant de l’internet Français et de l’entrepreneuriat.

Les réunions risquent d’être difficiles, avec des profils aussi variés !

L’enjeux principal il me semble est de définir une feuille de route efficace, de manière à ce que du concret sorte de ce groupe.

Parce que, des choses à faire, il y en a ! Internet est l’un des principal vecteur de croissance en France, et il est complètement sous représenté au niveau politique / lobbying.

(infos issues de l’article du monde)

Le drame des cookies…

Les discussions actuelles, qui visent à ajouter des fonctions de « protection de la vie privée », ça peut avoir de très fortes incidences sur nos métiers…

Pour bien comprendre tout ça, ça vaut le coup de reprendre un peu l’histoire du web.

Au début, le web, c’était simple :

Il s’agissait de pages de textes, statiques, contenant des liens permettant de naviguer, d’une page à l’autre. Il y a eu rapidement des images, mais tout cela restait très statique.

Pour faire ça, Tim et ses équipes ont travaillés sur des choses très simples : un langage de description de contenu, le HTML, et un protocole très très simple, le HTTP.

Le protocole est hyper basique :

  • Le serveur est passif, il « dort » tant qu’il peut (le bienheureux 😉 )
  • le client demande une page
  • Le serveur reçoit la demande, et renvoie la page demandée si elle existe, une erreur sinon (404, ça vous dit quelque chose ?)

Point à la ligne ! A la base, le protocol est « stateless » : le serveur ne fait pas le lien entre deux demandes. C’est comme si il était amnésique.

Tout cela marche très très bien pour les premiers contenus du web.

ça ne marche plus du tout quand il s’agit de mettre de véritables applications transactionnelles en ligne.

On a donc du étendre le protocol initial, et ajouter un « machin » permettant de faire le lien entre deux pages.

Pour nous, dans le e-commerce, c’est juste fondamental : c’est, par exemple, le moyen pour maintenir le panier du client rempli entre deux pages !

Pour faire ça, la technique la plus utilisée est d’utiliser les cookies.

Le mécanisme est assez simple :

  • Le client demande une page (ça démarre toujours comme ça 😉 )
  • Le serveur renvoie la page, plus un petit texte, qu’on appelle cookie, et qui sera interprété à part par le navigateur du client, qui va stocker ce fichier sur le disque dur du client.
  • Quand le client demande ensuite une page suivante, le navigateur renvoie le texte du petit fichier, vers le serveur.
  • Le serveur reçoit donc deux choses : la page à afficher plus le texte du cookie envoyée la première fois.

Si, dans ce petit fichier, on stocke un identifiant unique, on a bien, côté serveur, le moyen de faire le lien entre les deux pages. On a créé une session !

Petit détail complémentaire : le cookie est associé au nom de domaine du site. C’est comme ça que vous pouvez trouver, sur votre navigateurs, les cookies associés à chaque site web :

Bon, maintenant, les cookies, c’est utilisé pour pleins de choses. Si c’est effectivement utilisé dans une application e-commerce, ou tout autre application web, c’est aussi utilisé pour faire de la publicité ciblée (je te fais de la publicité en rapport avec les pages sur lesquelles tu navigues).

Je ne sais pas comment les choses vont évoluer, mais ça me semblait important de rappeler ces fondamentaux : pour travailler, on a besoin que ces mécanismes fonctionnent bien, et je crains que certains fassent l’amalgame entre les cookies pour publicité et les cookies pour faire tourner les applications en ligne.

Les 15 ans de l’Annuaire de l’Internet Francophone !

Cet article est écrit par Christophe Davy, dirigeant de Brand Online Commerce, qui est « l’invité permanent » de François sur ce blog.

Annuaire de l'internet francophone - couverture

C’est vrai, l’actualité du jour, c’est le lancement du moteur de recherche Bing en version française.

Mais comme aujourd’hui j’ai l’humeur nostalgique, plutôt que de disserter sur les plus et les moins de la nouvelle version de Bing, je vous propose un petit moment Vintage avec un retour 15 ans en arrière, en mars 1996 !

Bien avant Bing, bien avant Google, en mars 1996 donc, sortait un monument trop injustement oublié de l’internet français de l’époque des modems 14,4 k, une bible totalement improbable, un pensum bien touffu, j’ai nommé l’Annuaire de l’Internet Francophone !

C’était un livre, oui. Qui recensait peu ou prou tout ce qui existait en français sur la toile à cette époque-là ! Le contenu de l’Annuaire de l’Internet Francophone provenait du moteur de recherche Lokace, spécialisé dans les contenus en français (et aujourd’hui disparu ; tiens le nom de domaine lokace.fr est à vendre pour 299 €), qui était également une réalisation de l’équipe. Les concurrents de l’époque s’appelaient Altavista, Yahoo! et Nomade…

Sur 300 pages, classées selon un index géant de mots, on pouvait trouver dans l’Annuaire de l’Internet Francophone des milliers d’adresses internet et des centaines de copies d’écran : un état des lieux saisissant de l’internet francophone du début de l’année 1996 !

Annuaire de l'internet francophone - page intérieure

L’annuaire débutait par une petite présentation pédagogique de l’internet ; avec des explications toutes simples, comme il en fallait à l’époque. Morceaux choisis :
– « des documents échangés sur le World Wide Web (on dit aussi « le web » pour aller plus vite) »
-« pour parcourir le web, vous utilisez un logiciel de navigation tel que Netscape Navigator, Microsoft Explorer ou NCSA Mosaic »
– « le navigateur vous affiche un document contenant un certain nombre de termes soulignés : ceux-ci sont ce que l’on appelle des liens »
– « ainsi vous pouvez afficher un document provenant de Chine, et la minute d’après vous retrouver à lire un document d’origine polonaise : surprenant, n’est-ce pas ? »
– « début 1996, on comptait près de 20 millions de documents sur le web »
– « nombreux sont ceux qui rêvent de pouvoir « publier » un jour un de leurs ouvrages : c’est désormais chose possible… »

Il y avait aussi, en fin de livre, le classement des 1er Webs d’or décernés début 1996 par je ne sais plus qui. Dans la catégorie « Culture et Loisirs », c’est le site du Ministère de la Culture qui avait gagné, avec… 1107 votes !

Au fait, la page d’accueil de la version 1996 du site du Ministère de la Culture, c’était ça :

Homepage culture.fr 1996

L’annuaire (le livre) et Lokace (le moteur de recherche) étaient soutenus à l’époque par la Délégation Générale à la Langue Française. Question chiffres, l’Annuaire de l’Internet Francophone était vendu 149 francs (23 euros), et je me souviens que nous en écoulâmes plus de 3000 en 4 mois !

Bon, ben après ça, il ne me reste plus qu’à vous poser la question qui tue : vous aviez déjà une connexion internet, vous, en mars 1996 ?

NB : Spéciale dédicace aux deux autres auteurs de l’Annuaire de l’Internet Francophone : Thierry Lunati et Stéphane Malochet.