Et si l’Apple Watch, ou tout autre montre connectée, représentait un avenir stratégique pour le commerce et la relation avec les clients ?

Comme vous le savez sans doute, Target2Sell organise un évènement, sur l’avenir de la relation client.

Et pour symboliser l’esprit de cet évènement, on propose comme cadeau une Apple Watch 🙂

Quel rapport ?

Ben l’idée, c’est de se demander en quoi les nouvelles technologies à venir peuvent impacter la relation commerciale avec les clients.

L’arrivée de l’iPhone (suivi par Androïd) a changé la donne en son temps. Le smartphone est maintenant un élément incontournable de la relation avec ses clients, et ça représente un challenge pour la plupart des entreprises : conception et développement de versions mobiles des sites, et/ou d’applications.

Même chose pratiquement avec le développement des tablettes.

Alors, quel va être l’impact des montres connecté ? Peut on imaginer des services porté sur les montres ?

Bon, le thème de notre matinée n’est pas l’apple Watch mais c’est un symbole sympa.

Alors, vous venez en parler avec nous ?

Le vrai prix du logiciel

Je rencontre souvent des gens qui pensent savoir ce que coute le logiciel, mais qui en fait sont, de mon point de vue, complètement à côté de la plaque.

Je parle des gens qui pensent, pensée répandue, que 1 ou 2 développeurs dégourdis peuvent monter un produit.

Le discourt, c’est : avec les technologies actuelles, les frameworks, on peut développer un produit à cout très très réduit.

C’est en général faux.

Le cas particulier, c’est celui d’un produit simple combiné à un excellent développeur. Finalement, ce cas est rare…

L’erreur vient d’une non compréhension de l’origine des coûts du logiciel.

Faire un proto, oui, ça peut se faire très rapidement et à coûts très réduits.

Faire un produit robuste, complet, qui supporte bien la charge, c’est une tout autre histoire.

Un bon produit sera suffisamment bien fait pour être évolutif. Il sera administrable. Il aura une interface bien conçue pour le client, et les cas d’erreurs seront bien traités.

Tout cela a un cout, qui peut être 10, 100 fois plus élevés que le premier proto, qui « montre » ce que pourrait être le produit, mais qui ne traite pas la charge, ni les nombreux cas d’erreurs.

Cette erreur est malheureusement porté un peu partout, et de mon point de vue, fait du tord à l’industrie du logiciel.

Les boites de soft, les vrais, sont construites par des équipes de très bons développeurs.

Attention a ne pas tomber dans l’excès inverse : dans le métier du soft, la quantité ne fait pas l’affaire.

Une petite équipe agile peut avancer bien plus vite qu’une très grosse équipe mal organisé, mal dirigé. Dans ce métier, on a des facteurs de productivité qui peuvent avoir des facteurs 100, … et même infini, car de grosses équipes peuvent ne jamais rien délivrer… J’ai ainsi entendu un retour d’expérience d’un projet informatique planté, ayant coûté 200 M€ à la boite !

Donc, pour synthétiser, je dirais :

  • oui l’agilité, l’extrême compétence permet de faire des miracles, des produits complexes avec de petites équipes.
  • non on ne bâti pas une solution complète avec un super bon développeur
  • non la quantité ne fait pas l’affaire.

Sur le dernier point, une anecdote : j’ai entendu un entrepreneur français très connu, expliquer très sérieusement qu’il fait du off shore pour le développement. Et d’expliquer qu’il préfère prendre 50% de développeurs en plus en les payant 70% moins cher. Raisonnement financier complètement faux dans la pratique.

Vous reprendrez bien une petite fonction ?

Vous êtes dirigeant d’un site e-commerce.

Votre obsession : faire évoluer le site pour tout un tas de raisons  :

  • Vous avez décidé une action marketing, cela demande une petite évolution
  • Vous vendez un nouveau type de produit (nouvelle option par exemple)
  • Par rapport à un canal d’acquisition, vous avez besoin de mettre en place un tracking spécifique
  • Vous souhaitez changer quelques éléments dans le site : changer le look d’une page, changer la navigation, par exemple en ajoutant un popup d’ajout au panier, ….
  • Vous souhaitez adapter le site aux tablettes (le doigt n’interagit pas comme la souris)

Vous avez compris : Les raisons pour faire évoluer le site sont extrêmement nombreuses et on en rajoute en permanence.

Pour booster votre business, vous devez en permanence faire évoluer le site, rapidement.

Alors, vous faites une liste de course, que vous soumettez à l’équipe technique, interne ou externe.

Votre site est « tout neuf ». A ce stade, normalement, ça se passe bien. l’équipe fait les développements, avec des délais qui vous semblent raisonnables.

Bon, si dès le début les délais sont long, il faut se poser des questions : le site a-t-il bien été développé ? Bien développé, ça veut dire en particulier que le code source permet de faire évoluer le site avec des délais raisonnable justement.

Ah, ce sujet est compliqué à traiter : si votre demande d’évolution n’est pas codée rapidement, c’est pas forcément que le site est mal fait, c’est êut être que la demande qui vous paraît simple ne l’est peut être pas tant que ça… ça demande de s’assoir avec l’équipe technique, et de discuter, pour comprendre d’ou viennent les éléments de complexités.

Bon je reprends : au début, normalement donc, les « petites » évolutions sont plutôt rapide.

Ensuite, les choses se gâtent : plus le temps passe, et plus les demandes prennent du temps. Fini l’époque ou en quelques heures on pouvait faire évoluer le site. Maintenant, la moindre demande demande des jours… voir des semaines. Vous avez perdu la flexibilité.

En plus des tensions sont apparues entre les équipes. Le marketing estime que la technique « se moque du monde ». La réciproque est bien sûr vrai également….

Bref, la belle machine est grippée.

Que c’est il passé ?

La raison, c’est la « dette » : à force de faire évoluer le logiciel, par petites retouches, le code est devenu un plat de nouille, un « machin » extrêmement complexe. Personne en fait n’en a plus la maîtrise. L’équipe technique a voulu répondre à toutes les demandes, et à voulu répondre vite. Elle a donc accepté des « écarts » en terme de qualité : elle a codé rapidement, quite à faire du « copier coller » pour aller plus vite.

A force d’empiler les écarts, jours après jours, le code est devenu instable, extrêmement complexe.

En plus, bien souvent, les équipes ont tournées. Certaines parties du code ne sont plus vraiment maîtrisées.

A ce stade, les choses sont difficile.

Ce scénario, je l’ai vu des dizaines de fois.

Alors, comment l’éviter ?

C’est difficile 😉

On peut dire plusieurs choses :

  • Il est normal d’avoir un échange, une « négo » entre la technique et le métier. Si la négo est systématiquement qu’il faut faire vite, quelque soit l’impact sur la qualité, alors il faut pas s’étonner du résultat…
  • Il faut une équipe technique ayant un bon niveau, technique bien sûr, mais également « management », pour être capable de maîtriser ces enjeux, d’avoir de la hauteur de vue, et être capable de bien réfléchir aux conséquences des évolutions, et aux pistes pour ne pas plonger dans le capharnaüm.
  • Il faut des interlocuteurs métiers et direction « ouverte », à l’écoute des enjeux technique : seule façon de prendre en compte ces aspects.

C’est un sujet clé, qui mériterait… un livre 😉

Atelier E-Commerce du 16 juin : L’avenir de la relation client à l’air du cloud

La technologie permet de se rapprocher de ses clients…

Les smartphones et tablettes sont devenus un support incontournable pour les cyber acheteurs

Et si la montre connectée était la prochaine étape ?

Venez échanger sur : « L’avenir de la relation client à l’air du cloud » et gagnez une Apple Watch 🙂

inscription

Infos pratiques :

  • Quand : Mardi 16 juin de 9h à 13h
  • Lieu : Péniche « Le Tivano », Quai d’Orsay

tivano

Agenda :

  • 9h – 9h30 : Accueil – Petit déjeuner
  • 9h30 – 11h45 : L’avenir de la relation client à l’air du cloud
    • Quelles sont les nouvelles attentes des clients ?
    • Comment tirer parti de ces technologies sur tous les points de contact (web, mobile, call center, magasin, …) ?
    • Quelles sont les révolutions à venir ?
  • 11h45 – 12h15 : Croisière sur Seine et cocktail networking
  • 12h15 – 13h : Suite du Cocktail Networking à quai

Ils seront là pour partager leurs expériences :

 

Target2Sell, les évènements à venir (il y a du monde ;) )

Beaucoup d’évènements dans les jours qui viennent 🙂
Mardi 19 mai de 8h30 à 10h30: IPPON  – Machine Learning : Retour d’expérience avec Spark et Cassandra (47 avenue de la Grande Armée, Paris)
Événement qui pourrait intéresser les équipes techniques ou toutes personnes intéressées par les enjeux, à la croisée de la technique et du marketing
Mercredi 20 mai de 14h à 15h : E-Commerce Connect ( à l’hôtel Marriott Opéra Ambassador)
Conférence « Personnaliser la relation avec ses clients : enjeux, perspectives, mythe et réalités »
Soirée apéro web networking à 18h ouverte à tous.
Jeudi 21 mai à 11h : Webinar FrenchWeb 
E-Commerce: Comment augmenter son chiffre d’affaires avec la recommandation personnalisée de produits ?
Mardi 2 juin : Lengow Day
Thème de la table ronde : la personnalisation 🙂
Mardi 9 juin de 9h45 à 10h45 : Webinar Oxatis 
La recommandation de produits : un levier clé pour booster ses ventes pendant les soldes !
Mardi 16 juin de 9h à 13h : L’avenir de la relation client à l’air du cloud. (péniche Le Tivano qui sera située à Quai d’Orsay).
Parmi les participants : La Fevad, Frenchweb, Meninvest, Capitaine Commerce, Manutan, Bazaarvoice, iAdvize…
C’est notre « big event » avec tous nos clients, nos partenaires, nos amis…
Envoyez un mail à Caro pour vous inscrire : caroline@target2sell.com
Lundi 29 – Mardi 30 juin : # Shake – Stand + conférence de François le lundi 29 juin (à 14h ou 14h30 – horaire à confirmer). Lieu : Palais du Pharo à Marseille
Et encore, je parle pas des évènements à l’international : Russie et Espagne dans les semaines à venir.
Ouf 🙂

Le processus de développement agile

Quand je faisais du conseil, je parlais de l’intérêt de l’agilité.

Depuis que j’ai lancé Target2Sell, je le vis 🙂

L’équipe de développement est au taquet sur ces questions.

On fait plusieurs mises en productions par semaine.

Les mises en production ne font pas d’interruption de service.

Le processus est complètement automatisé, et met à jour une trentaine de serveurs, avec un mécanisme de rotation de manière à assurer la continuité de service.

2000 tests sont exécutés automatiquement à chaque « build ». Un build est lancé automatiquement à chaque « commit » poussé sur la branche principale de développement.

Avec un rythme aussi rapide, le risque de bug majeur est extrêmement réduit en fait. J’étais bien plus nerveux quand on faisait une mise en production par Sprint de 15 jours.

On est en mode Devops, il n’y a pas d’équipe dédié opérationnel, chaque développeur est responsable, depuis la conception jusqu’à l’exploitation.

Pas de territoire réservé non plus, chaque développeur peut agir sur n’importe quelle partie du code. Bien sûr, chacun se spécialise quand même en fonction de ses affinités Florent a pris en main Spark, Cyrille et JP ont bien investi Cassandra…

Tout cela permet d’avancer vite et bien, avec de bons échanges : le développement, c’est en permanence de la négociation, entre aller vite, et ne pas accumuler trop de dette.

La vie sans iPhone ?

J’avais mis l’iPhone dans la portière, mal rangé. La porte s’ouvre, l’iPhone tombe et malgré sa housse, bing, l’écran est complètement explosé.

J’ai donc envoyé l’iPhone pour réparation, et pendant ce temps, je me suis retrouvé avec un vénérable Thomson, basic.

LD0001585474_2

Alors, peut on vivre avec un tel téléphone ?

Le truc étonnant, c’est que ça fait presque tout : téléphone, messagerie, SMS, photos (si), Internet (si, en mode wap 😉 ).

Alors, tout est bon ?

Ben non 😉

  • Pas de carte, pour trouver le RV au dernier moment
  • Pas d’application SNCF pour savoir ou on est assis
  • Impossible de savoir qui appelle, et impossible d’appeler l’un des 1000 contacts, sans ouvrir l’ordinateur

Et puis le mode T9 pour l’envoie des SMS, on avait oublié, mais c’est « lourd ».

Donc au final, bien sûr qu’on « survie », mais cette expérience permet de bien prendre la mesure de ce que nous apporte un smartphone moderne.

L’iPhone, successeur du Palm Psion 5 ?

Depuis des années, je suis à la recherche d’un « ordi mini », successeur du noble Psion 5.

L’iPhone 6 Plus est pas mal, mais il manque un clavier.

J’ai enfin trouvé mon bonheur avec le clavier iLepo :

iphone ordi

Le clavier est vraiment bien fait, et à la différence d’autres modèles, marche avec les différents caractères accentués.

Son seul défaut : il glisse. J’ai donc ajouté à ma config un « sous main », fabriqué à partir d’un protège écran pour Mac.

Le tout est vraiment agréable à utiliser.

Je pense qu’à l’avenir les fabricants d’accessoires vont proposer quelque chose d’intégré, un peu comme ce qui est proposé pour l’iPad Air.

Et à quoi ça sert tout ça ? ça me donne accès à toutes les applications de l’entreprise, en mobilité, avec une utilisation intensive.

Donc, c’est la config utile pour les vacances, ou on ne veut pas amener l’ordinateur et ou on doit bien sûr pouvoir intervenir si besoin.

Guerre des pixels, Google est il le grand gagnant ?

Coucou, I’m back 🙂

La guerre des prix, c’est un de mes dadas depuis des années.

L’idée est de considérer les écrans d’un utilisateur comme une surface, composée de pixels.

Une personne « normale » voie donc dans sa journée des m2 (des km2 😉 ?) de pixels.

La guerre des pixels, c’est la guerre que se livrent les acteurs de ce secteur pour avoir la plus grande surface possible.

Orange, en son temps, avait cru gagner la guerre en imposant son application dans les smartphones… Apple est passé par là.

Aujourd’hui, Apple est très bien positionné sur le marché des smartphones, et a re-gagné des parts de marché.

Mais au niveau applications ?

J’ai pensé à cet article, hier, car j’ai entendu parlé de la nouvelle app Calendar de Google, et je l’ai installée.

Calendar, GMail, Maps, ces trois applis font bien mieux que les app d’Apple. Elles trouvent donc leur place sur les pixels de nos smartphone.

Pour ma part, j’ai 2 app google sur la barre de lancement rapide :

iPhone googleisé

Derrière la guerre des pixels, il y a du soft. Apple est il toujours au top sur ce sujet ? Pas sûr. Fadell est bien loin… Steve Jobs avait commencé par ne jurer que par le hard, mais avait su évoluer, et comprendre l’importance stratégique du soft…

A suivre

L’intelligence artificielle : La fin de l’humanité ?

Le brillant et étonnant Stephen Hawking pense que l’intelligence artificielle pourrait dépasser l’homme.

Stephen Hawking ne détaille pas sa pensée sur ce sujet. Alors, qu’en penser ?

Comment l’intelligence artificielle pourrait elle dépasser l’humanité ?

Il est certain que l’armée travaille à des robots tueurs.

Les nouveaux robots peuvent se déplacer vite, comme Cheeta :

Les robots sont de plus en plus intelligents, et Asimo est l’un des robots qui semble le plus évolué, avec aujourd’hui la capacité à marcher, courir, sauter, sur des terrains accidentés :

Donc il est bien certain que l’intelligence, la puissance physique et l’autonomie des robots sont en croissance rapide.

Alors, l’ordinateur intelligent est il un danger pour l’humanité ?

On peut imaginer plusieurs types d’attaques :

  • Une attaque « structurelle » : les ordinateurs prennent le contrôle de nos infrastructures. Les banques, les réseaux électriques, … toutes nos infrastructures sont gérées par des ordinateurs, plus ou moins inter-connectés par Internet. Une « intelligence artificielle » pourrait développer des virus informatiques, s’introduire dans les différents systèmes, et en prendre le contrôle. Ce scénario a d’ailleurs été creusé par plusieurs films ou jeux vidéos.
  • Une attaque physique : les robots militaires s’émancipent, et se retournent contre leurs créateurs. Là aussi, c’est un thème développé par plusieurs films. L’humanité pourrait être en danger si l’attaque est massive (armée de robots qui s’organisent, se développent, et détruisent l’humanité) ou si elle utilise des moyens globaux (un programme décide de lancer des bombes atomiques).

Ce qu’il faut bien avoir en tête, c’est qu’actuellement, et depuis plus de 60 ans que l’homme travaille sur ce sujet, l’intelligence artificielle n’a pas beaucoup progressé :

La puissance de calcul des ordinateurs a fait des progrès énormes, ce qui fait qu’en appliquant des programmes « mécaniques », on arrive à battre l’homme sur plein de sujets. L’ordinateur est au niveau du champion du monde des échecs, symbole s’il en est de l’intelligence… Mais le programme qui réalise cet exploit n’a rien de comparable avec ce qu’on appelle l’intelligence.

C’est le paradoxe actuel, on utilise la puissance de calcul pour effectuer des tâches de plus en plus complexes, mais on n’a toujours par percé le secret du fonctionnement du cerveau, et des tâches très simples restent inaccessibles aux machines.

Ainsi, à l’heure actuelle, aucun ordinateur ne sait s’adapter, apprendre, comme l’homme sait le faire.

Au fait, c’est quoi l’intelligence artificielle ?

Question simple et réponse pas si simple ;). Alan Turing, l’un des pères de l’informatique, avait inventé un test pour valider un programme intelligent.

On dit que l’homme est intelligent car il sait apprendre et s’adapter à de nouvelles situations. Il sait « intégrer » des données issues de contextes très variés, permettant des raisonnements complexes basés sur des données très incomplètes. Il ne s’agit donc pas de raisonnements parfaitement logiques, mais plutôt d’intuitions, induites à partir d’exemples divers. L’intelligence, telle que définie de manière anthropomorphe, est donc très liée à la capacité à apprendre, et à raisonner à partir de ces apprentissages incomplets. Cela fait bien longtemps qu’on cherche en informatique a simuler de tels systèmes, mais encore une fois, on est aujourd’hui loin du compte. La capacité du cerveau pour analyser une situation, avec extrêmement peu d’informations, reste complètement inégalée.

J’imagine que l’hypothèse de Stephen Hawking, c’est que ces barrières pourraient être franchies dans les années à venir.

Donc, dans cette hypothèse là, la machine serait, par rapport à l’homme :

  • Plus forte et plus rapide physiquement
  • Plus rapide à résoudre un problème complexe
  • Capable d’apprendre et de s’adapter à de nouvelles situations.

Se pose alors la question de la motivation de la machine :

L’homme pour agir est motivé par plusieurs « moteurs » : les motivations élémentaires liées à la survie, de soi (se protéger des agressions externes, se protéger du froid, boire et manger), la survie de l’espèce (la protection de ses proches, la reproduction) et les motivations liées à notre ego (avoir plus de pouvoir, d’argent).

Quelles seraient les motivations profondes de la machine ?

Qu’est-ce qui rendrait une machine dangereuse ?

Bon, d’accord, un robot militaire est dangereux, surtout si on est en face de lui ;).

Donc une machine est déjà dangereuse pour une personne ou un groupe de personnes. Un robot, un programme, peut tuer un ou plusieurs hommes. Mais ce n’est pas le sujet de la réflexion. La réflexion est plus globale, puisqu’on parle ici de la fin de l’humanité.

Donc, pourquoi une machine pourrait développer une telle motivation ?

Se pose donc la question qu’avait traité Isaac Assimov : au delà des programmes d’utilisation de la machine, quelles sont les « lois fondamentales » structurant la machine intelligente ?

Isaac Assimov avait imaginé trois lois :

  1. Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger.
  2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.
  3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi.

Mais ces lois ne tiennent pas la route, car les militaires, grands investisseurs dans ces domaines, ne mettront jamais en place de telles protections : un robot militaire doit évidement pouvoir tuer.

C’est marrant (si j’ose dire) car je pensais avant l’écriture de cette réflexion que Stephen Hawkins avait tort, mais au fil de l’écriture de cet article, je suis en train de changer d’avis. On peut très bien imaginer plusieurs scénarios catastrophes.

Je ne pense pas que la catastrophe puisse venir d’une machine avec un égo (« je veux dominer le monde »), mais plutôt de bugs dans le paramétrage de la machine (« pour protéger tel territoire, il faut supprimer telle population »). Si on délègue à une machine la capacité à prendre des décisions clés, alors le risque existe.

Les humains seront ils assez sages pour éviter cet écueil ? ça m’étonnerait 😉