Archives par mot-clé : Futur

Vers quel monde logiciel ?

L’aquisition en cours de Business Objects par SAP nous rappelle que le monde du logiciel devient affaire de gros acteurs, de très gros acteurs.

La logique ?

  • La capacité à délivrer, dans le monde entier, un service complet (commercial, support, marketing…) ;
  • La force de frappe d’un grand acteur, pour mettre les moyens nécessaires aux développements des nouvelles versions (le logiciel devient vite affaire de gros investissements…).

Pour autant, les grands groupes ont du mal à innover, alors ils achètent l’innovation, sur le marché des startups ou, comme pour Business Objects, sur le marché des éditeurs, les gros mangeant les plus petits.

Alors, aujourd’hui, monter un éditeur, c’est nécessairement pour se faire racheter ?

N’y a-t-il pas la place pour de nouveaux grands leaders ?

Y aura-t-il un jour de grands éditeurs français, rivalisant avec Microsoft, Oracle, Google ou IBM ?

Allez, on est encore au tout début de cette histoire, il y aura encore des révolutions, des nouveaux Google.

La dépendance aux services tiers… et à Google

Toujours lors de l’IE Club, lors des conférences, un gars a dit qu’il ne baserait pas le développement de sa société sur une solution tierce, comme S3 d’Amazon (désolé, je ne sais plus qui c’était).

Je lui ai demandé s’il utilisait Google ou GMail dans le cadre de son travail.

Après avoir évidement dit qu’il utilisait ces services, il a dit qu’en fait, la question n’est pas de s’appuyer sur d’autres boites (on le fait forcément tous), mais de bien valider la perreinité de ces solutions tierses.

Effectivement, c’est une question fondamentale, de baser son développement sur des fondamentaux bien solides.

Mais le problème, c’est qu’on n’a pas forcément le choix.

On l’oublie facilement parce qu’on a le nez dessus, mais la situation mondiale d’Internet en général et du e-commerce en particulier est incroyable : plus de 50% des clients d’un site marchand viennent via Google (ok, pas pour les ventes privées…).

Donc, pour un marchand, plus de 50% de ses revenus viennent d’une unique société.

Mais ce canal est il « prévisible » ? Oui, en grande partie, mais rien n’est garanti dans la durée.

Régulièrement, Google change les règles du jeu, pour que ses sources de revenus ne soient pas mises en danger.

C’est incroyable, je trouve, cette masse de sociétés de type SEO (Search Engine Optimisation) qui vivent en vendant une expertise, plus ou moins poussée, sur la façon dont Google indexe les pages (on dirait parfois qu’il y a un peu de magie !)

Combien de temps cette situation de monopole va-t-elle durer ?

Et quels seront les évènements qui amèneront à changer ces équilibres mondiaux ?

e-commerce : Retour vers le futur

Comment on imaginait la vie numérique, en 1967 ?

Beaucoup de choses y sont : le e-commerce, Internet, la profusion d’ordinateurs à la maison…

(via StandBlog)

Plus de technologie = plus de qualité ?

Yann m’exposait sa théorie, selon laquelle plus le temps passe, et plus la qualité des médias baisse.

Moi qui avais inconsciemment le sentiment inverse, cela a « secoué mes convictions ».

Voici l’argumentaire (Yann, tu dis si je déforme) :

« Pour la Photo, depuis 100 ans, la qualité ne fait que baisser.

Au début, on travaillait avec des plaques 12 * 12 cm, puis on est passé au 12 * 6, au 6 * 6, puis on s’est mis à mesurer en mm (24 * 36) puis l’APS (encore plus petit).

Quand le numérique est arrivé, cela a finalement été logiquement encore une baisse de la résolution.

Pour la musique, c’est finalement un peu la même chose : après le Vinyl, le CD a représenté une baisse de qualité, encore attaquée par les formats compressés (MP3).

Sans parler des formats vidéos, avec des taux de compression impressionnants… »

Intéressant, vous ne trouvez pas ?

On nous martelle tellement que le numérique, c’est associé à qualité (« le son numérique », l’image digitale », qu’on oublie que ce n’est évidemment pas forcément le cas.

C’est bien sûr une vue parfaitement subjective. La technologie a apporté son lot d’améliorations (la couleur, la stéréo, …).

Et puis, l’augmentation des espaces de stockage, de la résolution des capteurs vidéo, de la résolution des écrans plats, .., tout cela conduit à penser qu’on va remonter en qualité sur les différents média.

La nécessaire révolution des médias

Ouf, j’ai pas trouvé mieux comme titre…

Le sujet :

  • Tout ce qui peut être dématérialisé va se dématérialiser ;
  • Cela change la création, la distribution, la consommation de ces médias ;
  • Cela change avant tout le business model !

Quels médias

Comme je l’ai dit juste au dessus, tout ce qui peut être dématérialisé va se dématérialiser.

La musique et la vidéo évidemment (c’est déja bien engagé).

Mais cela va également concerner tous les contenus « textes » : livres, …

Pourquoi cette révolution touche moins les livres ? A cause du terminal : il n’y a pas encore de « livre électronique » de qualité.

Pas encore ? Pour ceux qui ont vu le e-book de Sony savent que ça va venir très vite maintenant :

Image du Sony Book Reader

L’écran est très proche de la qualité « papier », et grâce à la technologie PaperInk, cet ebook ne consomme pas d’énergie quand on lit une page. Le système se remet en route quand on change de page.

Donc, je suis convaincu que le ebook va se développer largement, et remplacer d’ici quelques années le livre papier.

La terrible loi de Moore

Loi qui dit que le nombre de transistors, dans un circuit intégré, double tous les deux ans.

La mémoire électronique est basée sur les transistors, et cette loi est à peu près vérifiée depuis 40 ans (!).

On a donc des cartes mémoires de plus en plus puissantes, et de plus en plus petites.

Ainsi, on a déjà sur le marché des clés USB utilisant la mémoire Flash de 8 Go, et mieux encore, des cartes microSD de 8 Go, avec déjà l’annonce d’une carte microSD de 16 Go…

Il n’y a aucune raison pour que cela s’arrête : il y a dans les labos tout un tas de technologies permettant de stocker toujours plus de données, sur des espaces toujours plus petits, avec des performances toujours meilleurs.

Et alors ?

Quand chacun peut mettre tous ses médias sur une carte grande comme un (petit) ongle, le business model de ces contenus est forcément chamboulé.

A mon sens, on peut toujours mettre des « radars » sur Internet, les échanges se feront autrement, directement en s’échangeant les médias, de carte à carte, de baladeur à baladeur….

Et les DRM ?

Les DRM, pour ceux qui ne connaissent pas, ce sont des « clés », sensées protéger les contenus contre les copies pirates.

A mon sens, la « guerre » des DRM est une guerre définitivement perdue (Steve Jobs dit la même chose d’ailleur).

Pour plusieur raisons :

  • La diffusion des contenus non protégée est très rapide ;
  • Les DRM peuvent être enlevées, de plus en plus facilement. Prenons un contenu protégé. L’augmentation de la qualité des contenus fait que, même si on repasse par un « trou » analogique et qu’on recode en numérique, la qualité du contenu ainsi décodé est très bonne, et sera de plus en plus haute (désolé, je n’arrive pas à expliquer cela plus simplement…) ;
  • La chaîne de valeur des acteurs n’est pas vertueuse : les clients des constructeurs de baladeurs et d’ordinateurs sont… nous, et pas les maisons qui gèrent les droits d’auteurs.

Quel avenir alors ?

Que la révolution actuelle fasse « bouger les murs », cela ne me pose pas de problème : des acteurs s’adapteront, d’autres non, et seront remplacés par de nouveaux acteurs plus agiles.

A mon sens, le seul vrai problème est la rétribution des auteurs (les intermédiaires doivent s’adapter !).

Que tout le monde puisse accéder à une médiathèque casi illimitée, cela a un côté très exitant, très positif.

Mais si les créateurs ne peuvent plus vivrent de leurs créations, c’est un vrai problème.

Quel business model ?

J’ai beaucoup regardé ce qui se passe dans la logique « Web 2.0 ». Alban parle par exemple des nouvelles opportunitées, offertent par la « création collective ».

Evidemment, et les maisons de production ont bien capté cela, le spectacle revient au centre de l’attention de tous…

Mais bon, le spectacle, cela marche pour la musique, mais pour les livres, on fait comment ?

Et puis pourquoi un auteur ne pourrait pas créer s’il n’aime pas le spectacle ?

Je ne dis pas que c’est idéal, mais je ne vois pas d’autre solution : si on veut que les auteurs puissent créer, il me semble que la seule solution, c’est la licence globale.

Le principe est simple : chacun paye une sorte « d’impot media » puis peut accéder à tous les médias, sans limite.

d’ailleur, les taxes actuelles, sur tous les supports numériques vont bien dans ce sens.

Le bord de la fenêtre…

Cela fait assez longtemps que j’ai ce billet en tête…

Le sujet, c’est une réflexion sur l’avenir des navigateurs Internet et de nos bureaux électroniques.

Donc, au début, on avait d’un côté un navigateur Internet, permettant d’afficher du texte, des liens et des images, et de l’autre des applications « lourdes », qu’on pouvait installer directement sur le bureau de l’ordinateur.

Aujourd’hui, les choses sont beaucoup moins simples :

Dans le navigateur…

Dans le navigateur, on fait aujourd’hui tourner de véritables applications, avec leurs propres fenêtres. La fenêtre du navigateur est devenu un bureau dans le bureau.

Premier exemple significatif : Meebo, avec les fenêtres qu’on peut déplacer, retailler :

Fenêtre de Meebo, dans le navigateur

Deuxième exemple, évidement, Netvibes. Ici, on a un espace plus structuré (colonnes prédéfinies), mais avec une vrai liberté pour composer l’espace (déplacer les fenêtres, changer l’apparence, …) :

Fenêtre de Netvibes, dans le navigateur

Dans ces deux exemples, la richesse applicative, dans le navigateur, est impressionnante.

Cette évolution, vers des applications de plus en plus riches, rend certaines fonctions du navigateur obsoletes, comme le bouton « Back », qui bien souvent, n’a plus aucun sens.

Sur le bureau de l’ordinateur…

Le bureau de l’ordinateur est l’espace pour faire tourner les applications locales…

Mais c’est bien évidement un espace fort convoité, par tous les grands acteurs.

Sun, avec Java, a tenté de banaliser ce bureau, en proposant des applications « universelles », capable de tourner sur tous les ordinateurs.

Aujourd’hui, l’espace du bureau est convoité par Google, qui, au delà de Google Desktop, prépare un Google OS.

Enfin, Adobe avec Air, propose un modèle finalement assez proche de Java, en cherchant à ajouter une couche, permettant de rendre les applications complètement indépendantes de l’ordinateur.

Ces tendances convergent vers un point : faire tourner sur le bureau des applications :

  • Riches visuellement ;
  • Qui peuvent utiliser des données et des ressources locales (disque, périphériques audio, video, …) ;
  • Qui peuvent utiliser des données distantes (mode connecté ou déconnecté).

Le bord de la fenêtre…

Le bord de la fenêtre du navigateur, c’est la limite très fine qui sépare ces deux tendances.

Vers un OS universel ?

Vous le savez, je suis passé du monde du PC au monde du Mac (ici et ).

En y réfléchissant, je pense que la facilité du passage de l’un à l’autre n’est pas un détail.

Tout d’abord, c’est possible principalement parce que, techniquement, les deux plates-formes sont en fait pratiquement les mêmes : mêmes processeurs, mêmes interfaces (USB, …), mêmes cartes graphiques, …

La meilleure preuve, c’est la floraison de solutions permettant de faire tourner des applications Windows sous Mac (Parallel, Bootcamp, CodeWeaver….) : c’est possible avec de bonnes performances car le hard est le même.

L’autre raison est la « normalisation » de notre environnement de travail : une souris, un bureau, des suites bureautiques universelles (mail, calendrier, …).

A mon sens, cette convergence à plusieurs conséquences :

  • Une opportunité pour Apple, pour regagner des parts de marché. La simplicité d’utilisation du Mac est flagrante comparée aux PC, et les Mac sont beaux !
  • Une banalisation de l’OS, et donc un logiciel de plus en plus difficile à vendre cher.
  • Un risque de perte de valeur sur le Hard pour Apple. Le choix de Steve Jobs, d’intégrer les composants du PC – y compris le processeur – était un très bon choix : la taille du marché des PC ne permettait plus de luter. Mais la conséquence, c’est que le Mac est de plus en plus un PC « bien habillé ». Même si les concurrents n’arrivent pas à égaler Apple, ils y arriveront un jours : je pense en particulier aux Coréens comme LG ou Samsung, qui avancent très vite…

Mais surtout, la conséquence, c’est que la principale différentiation va se faire sur les couches au dessus de l’OS, et en particulier au niveau des RDA.

10 years after…

L’avantage d’une migration, c’est qu’on en profite pour faire un peu de classement.

Je suis tombé sur une photo prise pendant une conférence, qui présentait le tableau suivant :

Tableau qui présente les principales évolutions en 10 ans

J’aurais bien rajouté l’intelligence artificielle et les robots, dans la même catégorie que l’IPTV ou la publicité sur mobile : on sait que ça va arriver, mais c’est pas encore arrivé.

Pour la TV, on est en plein dedans : la généralisation de boitiers type Apple TV, qui font le lien entre le monde IP et la TV, plus la vente massive d’écrans plats et donc nativement numérique, tout cela va accélérer la mutation.

Pour la publicité mobile, et plus généralement pour le business autour du mobile, c’est plus compliqué. Aujourd’hui, les opérateurs sont sur une position très défensive et l’accès aux service mobiles doit passer par un accord avec ces opérateurs. Bien sûr, les choses vont nécessairement évoluer, mais à quel rythme ?

Pour les robots, ça dépend de ce qu’on attend d’eux. Si c’est pour faire des choses vraiment très simples (alarme si quelqu’un entre chez vous…), ok, ça va venir très vite. Si c’est pour des tâches plus complexes (comme faire la vaisselle), alors on est dans le brouilard : il n’y a rien qui permet de dire que ça sera sur le marché dans 10 ou 20 ans…