Auteur/autrice : Mickael Marveaux

  • La trajectoire de la transformation numérique

    La trajectoire de la transformation numérique

    La trajectoire de la transformation numérique

    Dans une période où les gens se tournent de plus en plus vers le commerce en ligne, on entend de plus en plus souvent parler de transformation numérique des entreprises. Cette digitalisation au pas de course ne se fait toutefois pas tout seule. Et qu’est-ce que ça implique, une transformation numérique ?

    D’un positionnement initial…

    Avant de se projeter dans l’avenir, et d’imaginer une entreprise 2.0, il convient de faire un état des lieux. Grâce à des audits, il est possible de définir où en est la maturité digitale de l’entreprise. Il s’agit de son niveau l’implication et d’utilisation d’outils numérique. Est-ce que les services de communication utilisent des messages papier, le téléphone, ou une messagerie instantanée ? La relation BtoC se fait par quels outils ? Quel est le niveau d’informatisation de la société, les habitudes et usages des employés ? Quels types de services sont proposés aux clients, et comment…
    L’ensemble de ces analyses permettent de définir le niveau de maturité numérique d’une société.

    … à un objectif donné.

    Une fois le positionnement initial déterminé, il faut alors fixer des objectifs. Est-ce proposer de la vente en ligne, multiplier les canaux de distribution, changer la politique de relation client ? Et à l’aide d’un monitoring, quelles valeurs surveiller et atteindre ? C’est à l’aide de service conseils, suite aux audits, que cette politique va se définir. En effet, un audit permet aussi de définir quels sont les dysfonctionnements en besoin fonctionnels, et le service-conseil se basera dessus pour définir les objectifs répondant à ces besoins. Les moyens à mettre en œuvre, et la planification de ceux-ci forment la trajectoire de transformation numérique.

    … à un objectif donné.

    Une réorientation stratégique

    Changer de fonctionnement et de méthodes de livraison des livrables peut aussi impliquer un changement de cible, un changement de consommation. Est-ce qu’il faut accompagner les consommateurs précédents avec vous, progressivement, ou est-ce qu’il est plus pertinent de cibler uniquement le nouveau marché à acquérir via le numérique ? De même, il convient de fixer des priorités sur la trajectoire de transformation répondant à ces questions.

    … à un objectif donné.

    Mais, quels que soient les objectifs et les outils à mettre en œuvre, rien ne peut aboutir avec succès sans un facteur clé : l’adhésion à la conduite du changement par les collaborateurs et les employés de la structure. En effet, si un groupe de personnes ne souhaite pas adopter tels ou tels outils, toute la conduite de la transformation numérique peut se voir bloquée. Cela peut-être parce qu’ils n’en voient pas l’impact global, pour des raisons de politiques internes ou simplement par l’incompréhension des répercussions engendrées.

    La clé d’une transformation digitale

    Entraîner les membres à devenir acteurs du changement

    C’est pourquoi il est nécessaire d’impliquer toutes les équipes d’une structure dans la conduite du changement. En les rendant collaborateurs de la co-construction des nouvelles politiques internet, et en communiquant dessus en interne, on s’assure de leur implication. À l’aide de formations adaptées et personnalisées, l’adoption des nouveaux process se fera avec peu de frictions. Enfin avec un monitoring des nouveaux modes opératoires, on peut alors valider la transformation numérique conduite, ou définir les points à corriger.

    Que ce soit les clients finaux, ou l’entreprise, à la fin, tout le monde y gagne.

    je souhaite être contacté(e)

    Vous avez un projet ?

    Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

    Vous avez un projet ?

    Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

      Recopiez les lettres correctes

      captcha

    • Le Cloud hybride

      Le Cloud hybride

      Le Cloud Hybride

      Nous vous avons déjà parlé dans cette tribune du Cloud et des principaux acteurs. Cette technologie suscite les convoitises, la centralisation et l’administration des données étant un enjeu clé. Il fut un temps où même le gouvernement français rêvait d’un Cloud souverain. Mais avez-vous entendu parler du Cloud hybride ?

      Cloud privé, Cloud public

      Le Cloud hybride se base sur le principe de répartition des charges entre deux types de serveurs Cloud, privé et public. Le Cloud privé est un Cloud individuel, ou un serveur local, administré par l’entreprise qui héberge ses données. Seule l’entreprise utilise les serveurs de ce Cloud. Le Cloud public est un espace mutualisé avec d’autres entreprises. Un Cloud hybride est un service Cloud utilisant les deux solutions, une partie privée, sécurisée, une partie publique et mutualisée, flexible.

      Selon le NIST (National Institute of Standards and Technology, rattachés au département du commerce des États-Unis), la définition de ce système est « une infrastructure Cloud composée de deux infrastructures Cloud distinctes ou plus pouvant être privées ou publiques et qui restent des entités uniques, mais sont connectées par une technologie standard ou propriétaire permettant la portabilité des données et des applications

      … à un objectif donné.

      La flexibilité. C’est le mot d’ordre de ce système. Avec le Cloud hybride, il est possible d’héberger les données sensibles sur un serveur propriétaire, sécurisé, d’un petit dimensionnement, ou d’un rendement de connexion élevé. Le reste des données plus basiques, où le contenu sera alors hébergé sur des serveurs publics, moins cher, plus flexible. Selon les besoins, il est aussi possible de transférer une partie de la charge de connexion en déportant, sur des serveurs publics temporaires, des services, comme pour contrebalancer un pic de connexion lié à une activité saisonnière. Cela peut s’apparenter à du load balancing dans certains cas, en répartissant les données non critiques. Enfin, en s’appuyant sur des solutions publiques, on réduira les coûts de maintenance sur cette partie, permettant de se concentrer sur la maintenance de la partie privée, contenant les ressources critiques.

      L’intérêt

      Les contraintes

      Il faut utiliser les architectures middleware et software adaptés permettant l’interopérabilité du service sur les différents serveurs, et donc planifier en amont l’utilisation de cette technologie. Si ce n’était pas prévu initialement, cela engendrera des coûts supplémentaires.
      Autre contrainte, la différenciation du traitement sur les serveurs. Que ce soit sur la latence de la structure ou la charge de trafic, avoir des différences et des décalages sur les différents processus peuvent être rédhibitoire et contre-productif dans certains projets ou services.

      … à un objectif donné.

      Les trois acteurs principaux, AWS, Google Cloud et Microsoft Azure plus récemment proposent des solutions mettant à profit l’hybridation du Cloud. En 2018, déjà, Google s’associait avec Cisco pour développer ces solutions. D’autres acteurs, comme Salesforce dont nous vous parlions précédemment, innovent dans le cloud pour proposer leurs solutions métier. Avec l’appui du Machine Learning, il est de plus en plus possible de créer une interopérabilité et une flexibilité entre les serveurs pour répondre au besoin grandissant des entreprises qui sont en lien, de prêt ou de loin, avec la Data.

      Les acteurs

      L’avenir ?

      Avec l’augmentation des environnements hybrides, les besoins en infrastructures automatisés ont suivis. Cela n’est pas propre au Cloud hybride, mais aussi aux services multi/omni-Cloud, qui consiste à répartir ses charges entres différents serveurs et opérateurs. Avec les besoins grandissant de la Data, en stockage et en IA pour le traitement des données, le Cloud hybride automatisé s’est trouvé naturellement un allié. Les progrès en machine learning profitant aux deux domaines, les percées de l’un profiteront à l’autre. Et c’est tout l’écosystème numérique des entreprises, voir tout le monde de l’information qui en récoltera les fruits.

      Et l’on en est qu’au début.

      je souhaite être contacté(e)

      Vous avez un projet ?

      Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

      Vous avez un projet ?

      Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

        Recopiez les lettres correctes

        captcha

      • Virtualisation

        Virtualisation

        Virtualiser pour simplifier

        En octobre dernier, Google a présenté sa nouvelle version de chrome OS, contenant une possibilité de visualiser Windows. L’ambition première de Google est de pousser les utilisateurs du système d’exploitation de Microsoft vers ses propres solutions. Mais cela démontre aussi la démocratisation et l’optimisation d’une technologie utilisée à des échelles généralement plus importante.

        Qu’est-ce que la virtualisation ?

        La virtualisation consiste à exécuter sur un ordinateur des systèmes, dans un environnement isolé. Lors de la simulation d’un système d’exploitation, on est face à une virtualisation système, et on parle de virtualisation applicative dans le cas de l’exécution d’application sur une machine virtuelle. On retrouve alors dans une même couche logicielle les différentes strates d’un système global, la machine hôte émulant le matériel pour y exécuter le logiciel sur une seule matrice de donnée. On parle alors de virtualisation des données.

        Enfin avec des entrées et des sorties, il est alors possible de mettre à disposition le système à un utilisateur, en local ou à distance. C’est de ce type de virtualisation dont nous allons parler plus en détail.

        … à un objectif donné.

        Le premier intérêt est la centralisation des ressources informatiques. Avoir un serveur faisant tourner un grand nombre de machines virtuelles accessible à distance permet aux utilisateurs de se connecter à un système adapté à ses besoins, ou qu’il soit, avec un matériel relativement standard. La standardisation des postes permet aussi une gestion plus aisée du parc informatique, et donc son entretien. La réduction des coûts lié à la réduction de la valeur du parc informatique, et de l’entretien est généralement importante. Les postes utilisateurs n’étant plus les points où la puissance de calcul doit se trouver, un matériel relativement simple et accessible en masse suffit, réduisant les coûts du parc informatique globale.

        Quels en sont les intérêts ?

        Data et SI

        Avoir sur les mêmes serveurs toutes les machines des utilisateurs va faciliter la mise en place d’architectures spécifiques, pour optimiser le traitement des données et la récupération des informations. On peut alors optimiser la collecte des informations, sortir des KPI (Key Point Indicators, ou indicateurs clés) , créer des modèles, etc. On facilite ainsi les traitements Data en localisé. Mais la mise en place des architectures va aussi faciliter les mesures de sécurisation et de sauvegarde du système de l’entreprise.

        … à un objectif donné.

        En ayant un système centralisé et virtualisé, on facilite aussi les mises à jour globale des services. De même, en sauvegardant quotidiennement les images des environnements individuels, il est aisé de sécuriser intégralement le travail des collaborateurs. Besoin de transférer des données d’un environnement virtuel à un autre ? Les « machines » étant dans la même couche matériel, le transfert ne dépend plus d’un réseau et de ses limitations, mais uniquement de la machine hôte et de sa charge d’utilisation. Il est crucial d’avoir le bon dimensionnement, pour ne pas tomber à l’inverse dans la surcharge serveur.

        Évolutions et sécurisation

        Dépendances et risques

        Si un serveur de virtualisation n’est pas correctement dimensionné, cela peut avoir plusieurs impacts. Soit il n’est pas assez puissant, et lors des pics de charges d’utilisation, l’ensemble des services vont subir des ralentissements, des gels et des coupures, soit il est trop largement dimensionné, et les coûts engendrés par celui-ci seront plus importants que nécessaire.

        De plus, aux impératifs pour que le service soit accessible, la méthode de connexion de l’utilisateur peut être une source de problème. Si celui-ci ne dispose pas de connexion, ou de trop mauvaise qualité, il ne pourra pas se connecter convenablement. Si la charge de connexion est trop importante, ou si le serveur subit des attaques (DDOS ou autre) cela engendrera des problèmes similaires.

        … à un objectif donné.

        Une fois l’investissement initial effectué, qui peut sembler important, la réduction des coûts globaux et de maintenance permettent de revenir assez rapidement sur l’investissement grâce aux économies réalisées. La flexibilité proposée par cette technologie, et les possibilités d’évolution en font une solution incontournable dans les entreprises, d’autant plus dans un monde de plus en plus dirigé par l’adaptabilité, la réactivité, la mobilité et la Data.

        Une solution efficace et pérenne

        je souhaite être contacté(e)

        Vous avez un projet ?

        Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

        Vous avez un projet ?

        Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

          Recopiez les lettres correctes

          captcha

        • Machine Learning

          Machine Learning

          Machine Learning

          Mentionné sur notre page traitant de notre vision de la Data, le Machine Learning est utilisé pour le traitement des données. Mais c’est un domaine vaste, et nous souhaitons revenir dessus.

          Définition

          Le Machine Learning est une discipline informatique visant à automatiser l’amélioration et l’efficacité de processus informatiques. Champ d’étude de l’intelligence artificielle, cette approche est fondée sur des approches mathématique et statistique, suite a des itérations d’actions et d’exécutions, pour donner aux ordinateurs la capacité d’améliorer leurs algorithmes à partir des résultat précédemment obtenus. Le plus important est que l’ordinateur n’est pas préalablement programmé pour résoudre les tâches, il apprend à les résoudre, essais après essais.

          … à un objectif donné.

          La où les méthodes classiques, les outils analytiques traditionnels, ne sont pas adaptés, car pas assez puissants, les programmes et « Intelligences Artificielles » issues du Machine Learning peuvent apporter leur flexibilité et leur puissance de calcul. Après avoir été rodé sur des questions et des données de plus en plus complexes, il leur est possible d’extraire des informations depuis d’importantes quantités de données de manière autonome. La où un esprit humain pourra se perdre dans la masse d’information, une « IA » deviendra plus précise et pertinente.

          L’application pour la Data

          Data et Machine Learning, un cycle vertueux

          En effet, le Machine Learning à besoin de données pour alimenter ses tests. Plus les informations fournies en entrée sont importantes, plus l’ordinateur pourra faire d’essais avec variations, et pourra recouper les réussites et les échecs, pour un tirer des modèles d’analyse et de prédiction.

          Plus on fournit de données, plus la machine devient performante. Plus elle devient performante, plus les données sont valorisées. Les données étant valorisées, leur récolte devient encore plus cruciale, et la masse d’information récoltée grandissante, les machines pourront pousser plus loin leurs analyses.

          Chez Cerebro Technologie, nous surveillons ça de près.

          je souhaite être contacté(e)

          Vous avez un projet ?

          Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

          Vous avez un projet ?

          Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

            Recopiez les lettres correctes

            captcha

          • L’informatique évolue, les piratages aussi

            L’informatique évolue, les piratages aussi

            L’informatique évolue, les piratages aussi

            Au moment où le télétravail est devenu un outil de lutte sanitaire contre le Coronavirus, de nombreux Français ont changé leurs habitudes en déportant leurs activités à la maison. Mais ce faisant, de nouvelles vulnérabilités aux piratages apparaissent.

            Pourquoi ?

            Avant tout, petit tour d’horizon. Pour tous types d’entreprises, il y a naturellement une accumulation de donnée. Ces données représentent une cible pour tout hacker, soit pour du recel d’information, soit pour l’accès aux comptes, etc. Plus l’entreprise est importante, plus les données le sont : imaginez le piratage d’un opérateur internet, donnant accès à des dizaines de millions de compte internet, et autant de boites mail… Mais le plus souvent les entreprises de cette ampleur ont conscience de cet enjeu et investissent un budget conséquent dans la cybersécurité.

            … à un objectif donné.

            C’est pourquoi, selon une étude de l’opérateur américain Verizon paru en 2018, 58 % des victimes de piratages de données sont de petites entreprises.
            Ces entreprises ont soit un budget insuffisant pour combler leurs failles de sécurité, soit une méconnaissance sur le sujet et les risques encourus. Pourtant, avec une augmentation constante des attaques, tous les secteurs sont atteints. En 2019, 91% des organisations françaises ont été touchées par des attaques informatiques de tous types. 65% d’entre elles l’ont même été à plusieurs reprises, selon des responsables de la Sécurité des Systèmes d’Information (RSSI) de grandes entreprises. Les attaques globales ont été en hausse de 25% l’année dernière.

            Les cibles privilégiées

            Comment ?

            Quels sont les menaces et les types d’attaques auxquels les entreprises doivent faire face? Elles peuvent être logicielles, virales, matérielles, mais aussi sociales. À l’aide de virus, il est possible aux black hats de créer des failles et des portes d’accès pour dérober des informations. À l’aide de ransomware, en cryptant les données, non seulement ils bloquent des sociétés, mais font aussi chantage pour obtenir de l’argent directement. Avec l’augmentation d’objets connectés, les accès aux réseaux par des accès non sécurisés se multiplient aussi. Selon l’éditeur d’antivirus Symantec, les routeurs et caméras connectées représentent 90 % des appareils infectés (étude de 2019). L’interception de communication entre objets, ou services à l’aide de composants vérolés ou de logiciel de sniffing sont tout autant d’arsenaux pour les hackers.

            … à un objectif donné.

            Mais l’une des cibles clé des pirates informatiques reste les utilisateurs. Que ce soit à titre personnel ou professionnel, tout le monde a déjà été confronté à des mails de fishing. Un courrier reçu avec l’en-tête de l’opérateur ou de la banque, un design identique ou perfectible, et un français bien souvent approximatif… Ces mails invitent l’utilisateur à se connecter à son compte en urgence, en suivant un lien spécifique, sous couvert de conséquences désastreuses si la procédure indiquée dans le mail n’est pas respectée dans les 24h. Si l’utilisateur clique dessus par inadvertance, ou ignorance, non seulement, il divulguera directement ses identifiants, donnant accès à ses comptes, mais il sera alors potentiellement infecté par un virus qui engendrera d’autres failles.

            Le piratage social, ou la responsabilité personnelle

            L’usurpation d’identité

            Toujours selon l’opérateur Verizon, en 2017, 22% des piratages commis ont utilisé des identifiants volés, et 36 % des données compromises étaient des informations personnelles telles que nom, date de naissance et sexe. En utilisant ces informations, et l’accès aux comptes mail, voire en créant de faux mails, il est alors possible au pirate d’usurper l’identité de leur victime, soit pour arnaquer leurs proches, soit pour acquérir d’autres informations auprès de leurs entreprises. Cela est particulièrement important lors des situations de télétravail imposées. Si les collaborateurs ne se voient pas, le recours au mail est bien plus important et crédible, et les possibilités de vérifier l’identité de l’interlocuteur sont amoindries. C’est là ou rendre la responsabilité personnelle et les vérifications continues.

            … à un objectif donné.

            Pour éviter ce genre de situations, il faut se préparer. Il faut combler les failles de sécurité, et mettre son parc informatique et logiciel constamment à jour. Cela demande du budget et des spécialistes, mais il faut considérer cela comme un investissement à long terme. Il faut être vigilant sur les solutions antivirales. Aucune d’entre elles n’est efficace à 100%, car bien qu’on voit apparaitre de plus en plus de solutions prédictives, on ne peut que réagir aux nouvelles menaces. Le temps de trouver la parade, de nouvelles variantes auront été développées, de la même façon que l’on ne peut développer un vaccin contre une maladie n’existant pas encore.

            Il faut aussi sensibiliser et responsabiliser les utilisateurs contre les menaces, hameçonnages et autres usurpations d’identités. Il est possible de faire des formations de sensibilisation, ou de faire appel à des experts du domaine pour expliquer où se trouvent les risques et les enjeux.

            Enfin, en doublant les points d’authentifications et de contrôles (doubles mots de passe, tokens, VPN…) on renforce encore plus la sécurité globale du service.

            Les moyens pour se protéger

            Security is serious business

            Tout cela à un coût indéniable. Les entreprises sont souvent frileuses à engendrer les dépenses nécessaires à la sécurisation de leur écosystème, d’autant plus que cela ajoute des contraintes d’utilisation. Mais une cyberattaque peut détruire une société en volant ou détruisant les données, en bloquant une activité avec des attaques DDOS, ou divulguant des données confidentielles. Investir en sécurité, c’est garantir auprès de ses clients la viabilité de la structure. C’est un investissement qui peut avoir avec la bonne communication un retour direct sur l’image et la confiance que peut avoir le client de la société. En faisant appel à des consultants externes, en réalisant des audits, les entreprises se donnent les outils pour pérenniser leurs activités.

            Ne pas prendre au sérieux la cybersécurité, c’est ne pas prendre au sérieux son entreprise.

            je souhaite être contacté(e)

            Vous avez un projet ?

            Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

            Vous avez un projet ?

            Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

              Recopiez les lettres correctes

              captcha

            • Data et Coronavirus

              Data et Coronavirus

              Data et Coronavirus

              Si la situation actuelle nous a appris quelque chose, c’est que la Covid19 impacte toutes les strates de la société. Tout le monde est concerné, vois ses habitudes de travail et de vie changer. Le quotidien, de part la distance imposé et le confinement, se digitalise. La conséquence : une production de données accrues, les domaines de la Data sont plus que jamais sollicité. Mais quels sont les usages que nous pouvons avoir de ces données, et comment la Data peut aider à la situation actuelle ?

              L’impact de l’épidémie sur les habitudes

              Le comportement des gens a changé depuis le début de l’année 2020. Entre les confinements, les gestes arrière, les précautions courantes, la population s’adapte à la situation. Sur Internet, aussi, les comportements changent. Plus d’achats en ligne pour palier à la fermeture des magasins, moins de réservations dans l’événementiel, des services en stand-by ou surchargés en fonction du domaine concerné. Tout cela va se traduire donc par des fluctuations d’utilisation de services, et à des changements de fréquentation sur les réseaux.

              … à un objectif donné.

              Pourquoi utiliser la Big data pour aider la gestion de la crise épidémique ? La gestion d’une ressource encore limitée, le vaccin. Il n’y aura pas sur le marché assez de vaccin pour toute la population immédiatement début 2021. Il faudra alors choisir comment vacciner la population, quelle politique sanitaire adopter. Connaitre l’impact exact de l’épidémie sur la population, s’est gagné en précision, en efficacité, réduire coûts et dépenses publiques.

              Pour obtenir des informations sur l’impact de l’épidémie, deux possibilités : soit on demande directement à la population, soit on les déduit de la masse de données générée par les charges d’utilisation et des bases de données de divers organismes.

              Le but de la collecte des informations

              La collecte directe

              Pour demander directement à la population, divers pays comme la France ou le Royaume-Uni utilise une application mobile. « Stop-Covid » ou « TousAntiCovid« , COVID Symptom Study, autant d’applications qui par le renseignement de l’emplacement géolocalisé, la fréquentation, l’indication de l’état de l’utilisateur permet d’avoir des informations directes et cohérentes. Mais il y a un problème de taille, ces informations sont discriminantes, car autant l’échantillon d’utilisateur est suffisant pour en tirer des statistiques, autant il est basé sur un public volontaire. Rien qu’en France, la part de la population « complotiste » réfutant les actions scientifiques, ou étant réfractaire aux actions de protection est importante. Cet été a été le théâtre de manifestation anti masques dans le monde.

              … à un objectif donné.

              Alors pour avoir des données plus globales et justes, il convient d’avoir un angle de recherche plus large, en recoupant les bases de données des habitudes numériques, des trafics sur les différents services. Mais là ou une collecte directe est centralisée, la récupération et le recoupement des données demandent à obtenir de sources différentes les bases d’informations pertinentes. Certaines bases de données publiques peuvent servir de point de départ pour les gouvernements, comme les administrations, les hôpitaux, ou bien les services financiers. Mais pour ce qui est des charges de services tiers, les bases de données des opérateurs ou des hébergeurs, l’accès aux bases de données privées sont plus compliqués, outre l’aspect financier.

              La collecte induite

              Le traitement des données

              Une fois la collecte des données, il faut interpréter celle-ci. Aux résultats, vont s’ajouter des choix pratiques, politiques et éthiques.

              Dans le cas de la France, il a été décidé d’agir par solidarité envers les personnes les plus âgées, et les campagnes de vaccination se feront par tranche d’âges, des plus agées au plus jeune.

              Pour d’autres pays, comme les États-Unis et le Royaume-Uni, les gouvernements ont décidé de faire appel à des spécialistes du traitement de la donnée de masse, la société Palantir. Le gouvernement américain a décidé de permettre à la société, déjà partenaire des services de sécurité comme la CIA, FBI, NSA… , d‘analyser les données anonymisées recueillies pour aider les autorités locales à définir des plans de vaccinations optimisés.

              … à un objectif donné.

              Nous verrons les résultats des différentes campagnes de vaccinations au cours de l’année 2021. Plusieurs modèles politiques vont être en concurrence : des campagnes solidaires visant les plus fragiles, d’autres politiques orientés économies et démagogie, et enfin celles pragmatiques, basées sur l’analyse des masses de données pour être la plus efficiente possible. Mais 2021 va probablement être l’année où la Data va gagner en importance et en influence sur la vie de tous les jours.

              Les résultats

              je souhaite être contacté(e)

              Vous avez un projet ?

              Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

              Vous avez un projet ?

              Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

                Recopiez les lettres correctes

                captcha

              • La digitalisation de la monnaie

                La digitalisation de la monnaie

                La digitalisation de la monnaie

                Le monde de la cryptomonnaie est en pleine ébullition! Entre Facebook qui s’apprête à proposer Diem (sa monnaie virtuelle) en janvier 2021, la banque espagnole BBVA qui va lancer ses services de crypto trading, ou bien le bitcoin qui à dépassé ce jeudi 17 décembre les 22 000 dollars (un record historique), les répercutions de la monnaie virtuelle sur le monde réel sont bien présentes. Plus qu’on ne le pense.

                Rapide tour d’horizon

                « Le bitcoin n’est plus un gadget et s’installe durablement dans le paysage financier mondial », titrait ainsi l’éditorialiste et économiste du Monde Philippe Escande, le 7 décembre dernier. Le bitcoin est la cryptomonnaie la plus connue, une sorte de porte-étendard. Le nombre d’institutions soit portant des projets de création de cryptomonnaies, soit investissant dessus, sont en augmentation depuis que le bitcoin est rentré dans la culture collective. La monnaie elle même a connue une augmentation de 185% de sa valeur cette année.
                Cette monnaie créée en 2009 n’est pourtant pas la première. Des tentatives ont été faites à la fin des années 90 par la société Digicash. Celle-ci fit faillite. D’autres tentatives ont eu lieu, jusqu’en 2009, ou le succès croissant de bitcoin entraîna dans son sillage de nombreuses autres cryptocurrencies.

                … à un objectif donné.

                L’économie virtuelle autour de ces monnaies a pris une ampleur considérable, avec des valeurs totales qui se comptent en milliards d’euros. Des sociétés, côtés en bourses affichent ouvertement leurs investissements en bitcoin ; le Venezuela et les îles Marshall sont les premiers états à avoir fondé leurs cryptomonnaies en 2018 ; de nombreuses banques, comme Gazprombank et BBVA proposent des services de tradings et d’investissements…

                En France, le ministère de l’Économie et des Finances n’est pas resté silencieux. Sur son site officiel, il rappelle que les crypto-monnaies ne sont pas réglementées, et rappel que l’euro est la seule monnaie ayant cours légal en France. « Sur le plan juridique, une crypto-monnaie n’est pas une monnaie : elle ne dépend d’aucune institution, ne bénéficie d’aucun cours légal dans aucun pays ce qui rend l’évaluation de sa valeur difficile et ne peut être épargnée donc constituer une valeur de réserve. » ( https://www.economie.gouv.fr/particuliers/cryptomonnaies-cryptoactifs ). Mais a contrario, rien n’est indiqué contre celles-ci en France, si ce n’est des recommandations et des mises en garde.

                Virtuel mais réel

                Réel mais virtuel !

                Toute monnaie est indexée sur quelque chose, dans le cas des monnaies classiques, généralement l’or des réserves étatiques concerné. Pour le bitcoin, c’est différent : Le nombre d’unités émis sont créés par les utilisateurs grâce aux calculs informatiques (le minage) et sera limité mathématiquement à 21 millions, quant à la valeur est, elle, indexé sur l’offre et la demande, à la manière d’une action. Et chaque crytomonnaies à ses propres règles d’indexation, parfois sur des valeurs physiques, parfois non.

                … à un objectif donné.

                À l’heure où des économistes, tels que Mira Christanto (@asiahodl sur twitter), se concentrent sur les monnaies virtuelles, et affichent comme conclusions que le bitcoin en fin 2020 est moins volatil que l’or en termes d’investissement, de plus en plus d’acteurs du secteur bancaire franchissent le pas. Les banques asiatiques sont en train d’opérer de grandes transactions et un début de prise de position important dans le domaine, avec par exemple la création par la plus grande banque de Singapour, DBS, de sa propre cryptomonnaie, annoncé ce jeudi 10 décembre. (source : This week in Asia ). Leurs buts : Proposer des solutions sécurisées pour digitaliser les levers de fonds des entreprises, PMI PME grands comptes, et faciliter les démarches en virtualisant leurs fonds. Nul doute que dans un futur proche, ces services trouveront écho dans l’ensemble du secteur bancaire. L’avenir est plus que jamais digital, et lié aux cryptomonnaies.

                Un pari sur l’avenir ?

                je souhaite être contacté(e)

                Vous avez un projet ?

                Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

                Vous avez un projet ?

                Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

                  Recopiez les lettres correctes

                  captcha

                • Est-ce vraiment la fin des cookies tiers?

                  Est-ce vraiment la fin des cookies tiers?

                  Est-ce vraiment la fin des cookies tiers ?

                  En octobre, la CNIL à publié ses recommandations futures sur l’avenir et l’utilisation des cookies. On a vu paraître beaucoup d’article indiquant alors que les cookies allaient disparaître, ou que la CNIL supprimait les cookies. Est-ce vraiment le cas ?

                  Les cookies et la liberté individuelle

                  Les cookies, des fichiers servant à stocker des données sur le poste du client sur sa navigation, ont été longtemps utilisé à la discrétion des sites internet et des entreprises les régissants. Initialement créés à des fins logistiques pour mémoriser l’état de session de l’utilisateur, les administrateurs ont vite compris que ces fichiers accessibles devenaient une vraie mine d’information. Des habitudes de l’utilisateur à ses sensibilités, les publicitaires et autres services aux besoins marketing ont utilisé de toutes les façons les informations pour proposer dans le meilleur des cas des services personnalisé, mais aussi de manière plus agressive de la publicité ciblée allant jusqu’au traçage complet de l’utilisateur. L’information se monnaye, au profit des libertés individuelles. L’argent justifie les abus et les pouvoirs politiques l’ont bien compris.

                  En 2018, la Commission européenne a adopté les lois RGPD visant à redonner la main sur la gestion des cookies à l’utilisateur. Il est alors demandé à l’utilisateur son consentement pour pouvoir déposer et utiliser des cookies sur son navigateur. Libre à lui d’accepter ou de refuser. Suite à cela, les bandeaux d’acceptation des cookies, parfois forcés sous peine de non-utilisation des services sont apparus, avec plus ou moins de dérives.

                  … à un objectif donné.

                  Après un retour d’usage de deux ans, la CNIL à décidé de publier en octobre 2020 une mise a jour des recommandations et de la réglementation relative aux cookies. Il s’est avéré qu’un grand nombre d’acteurs usaient d’astuces visant a forcer le consentement de l’utilisateur, par des moyens graphiques, en réduisant les possibilités de refus, ou en noyant l’utilisateur d’informations parfois parasites.

                  Dans la mise à jour (disponible ici sur le site de la CNIL) il est indiqué que le consentement doit être recueilli par un acte positif clair, facilement réversible, que la possibilité de refus doit être symétrique et tout aussi aisé. De même, l’identité de tous les acteurs utilisant ces cookies doit être signalée pour que l’utilisateur pour accepter en tout état de cause. Et enfin les organismes exploitant les traceurs doit être en mesure de fournir la preuve du recueil valable du consentement libre, éclairé, spécifique et univoque de l’utilisateur.

                  Toutefois, et ce point est important, certains traceurs sont cependant exemptés du recueil de consentement. Ainsi les cookies destinés à l’authentification auprès d’un service, de gestion de panier e-commerce, ceux visant à générer des statistiques de fréquentation, ou encore ceux visant à limiter l’accès gratuit à un échantillon de contenu (comme pour les articles de journaux) sont considéré vitaux et implicites.

                  Les entreprises ont jusqu’à fin mars 2021 pour s’assurer de la conformité de leurs pratiques aux nouvelles exigences RGPD et de la directive ePrivacy. 

                  La mise à jour de la CNIL

                  Pourquoi cri t’on à la mort des cookies ?

                  Les cookies sont la principale source d’informations numérique pour les services de marketing. Et les mesures prises par la CNIL mettent à mal cette source. Plus encore, les navigateurs, en concurrence les uns envers les autres, annoncent et appliquent des solutions de limitation de cookies. Google à annoncé que son navigateur chrome, qui équipe la majorité des équipement de navigation ordinateurs ou mobiles, supprimerait les cookies tiers pour 2022.

                  Résultat : les cookies seront plus rare, mais aussi moins pertinent car vidé de leur substance commercialement exploitable. Bien que les cookies de tracking seront en théorie épargnés par la loi, le zèle dont font preuve les éditeurs de logiciel de navigation va trancher comme un couperet. 
                  Plusieurs experts du Digital se sont demandé quel serait réellement les conséquences de la disparition des cookies tiers. D’un point de vu marketing, les publicités personnalisée, les actions de retargeting, et les statistiques comportementales ne pourront plus être proposé de la même manière. Les démarches d’AB testing (la proposition de deux versions du site à deux publics différents pour comparer les impacts) seront faussé, un même utilisateur ayant potentiellement accès aux différentes versions. Plus propres à l’usage, l’expérience utilisateur et la personnalisation des services web ne seront plus possibles si les habitudes de navigations ne peuvent pas être mémorisées.

                  … à un objectif donné.

                  Non.

                  Internet, et les domaines IT en général, sont des domaines qui évoluent très vite. Les services qui reposaient sur les cookies et les données commerciales vont s’adapter pour proposer une offre internet équivalente en terme de qualité, de contenus et de possibilités. Pour qu’un groupe comme Google, dont la richesse s’est bâtie sur l’information et les cookies, décide de supprimer cette gestion technologique de son navigateur avant ses concurrents, c’est qu’ils ont prévu de s’adapter. Par l’analyse des flux sur les portions de réseaux leurs appartenant, le comportement prédictif de l’utilisation des logiciels, ou autre chose, Google doit déjà avoir sa propre solution pour contourner le problème des cookies. Si Google l’a, d’autres l’aurons aussi. D’autant plus qu’avec l’usage de vpn et d’add blockers, la qualité et la quantité des informations recueillis avait déjà perdu de sa pertinence.

                  Quant aux autres services qui nécessitaient les cookies, cela va juste changer le fonctionnement de certaines pages, voir l’émergence de nouveau langages, standards et protocoles web. Voir même créer une nouvelle économie : l’AB testing physique existe déjà, avec les tests des produits par des panels de consommateurs représentatifs des populations cible. Nous allons voir apparaître des groupes proposant des offres similaires avec des panels d’utilisateurs volontaires. Les entreprises investiront plus pour obtenir des données pertinentes. Mais internet ne changera pas, il continuera d’évoluer, de s’adapter à l’utilisateur. Quant aux cookies, ils redeviendront de simples éléments techniques temporaires, et non plus des outils de datamining. 

                  Est-ce la fin du web tel que nous le connaissons ?

                  je souhaite être contacté(e)

                  Vous avez un projet ?

                  Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

                  Vous avez un projet ?

                  Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

                    Recopiez les lettres correctes

                    captcha

                  • Salesforce, Slack, et les solutions Cloud.

                    Salesforce, Slack, et les solutions Cloud.

                    Salesforce, Slack, et les solutions Cloud.

                    Début décembre, l’une des grosses nouvelles dans le monde de la Tech était le rachat de Slack par Salesforce. En acquérant la solution de messagerie instantanée d’entreprise, Salesforce confirme ses ambitions à étoffer ses solutions business, le but étant de devenir un acteur incontournable software et infrastructure. Car au-delà d’être un fournisseur CRM, c’est aussi un acteur Cloud qui grossis, avec des solutions CDN.

                    État des lieux des acteurs principaux Cloud

                    Actuellement, il y a 3 acteurs majeurs des services Cloud : Microsoft Azure, Amazon Aws et Google Cloud. Nous avons déjà présenté ces acteurs majeurs ici : https://www.cerebro-technologie.fr/index.php/cloud/, mais voici un rapide comparatif.

                    Entre ces trois acteurs, il n’y a pas vraiment de classement, les technologies et les offres évoluant rapidement. Mais quelques points peuvent être d’ores et déjà avancés. Microsoft Azure est un service Cloud proposant des offres de type PaaS (plateform as a service) et IaaS (infrastructure as a service). Microsoft est aussi le propriétaire de solution SaaS (software as a service), comme la célèbre suite office 365, preuve de leur maitrise logiciel et de leur place d’acteur dominant sur la scène informatique.

                    Amazon AWS propose aussi des solutions Cloud SaaS, PaaS et IaaS, mais à commencé plus dans l’hébergement de données et l’acheminement de celles-ci. Disposant de services d’acheminement de données et des backbones internet, de nombreux opérateurs internet font appel à Amazon et son service CDN (content digital network) pour fournir les connexions optimales entre les différents serveurs partout dans le monde.

                    Google enfin, initialement plus orienté stockage de données et services SaaS, se trouve en solution intermédiaire. Leur réseau propriétaire se développe, leurs serveurs de stockages sont parmi importants du monde, leurs suites de travail collaboratif est un des plus adoptés du grand public et des PME. La société mère, Alphabet, n’hésite pas à expérimenter dans des domaines précurseurs, comme le projet d’internet par ballons-sondes Loon. En faisant profiter à toutes les filiales des avancées et améliorations découvertes, c’est l’innovation, l’amélioration et la fiabilisation des solutions proposées par Google Cloud qui sont améliorées.

                    Mais tous trois travaillent sur une chose primordiale : le CDN. Stocker et conserver les données nativement, posséder et contrôler les canaux de transmission, dans le but d’être le plus rapide possible sur l’acheminement des données et subir le moins d’influence extérieure.

                    Les besoins stratégiques de Salesforces

                    Au-delà de l’aspect logiciel CRM de Salesforce, il y a des besoins. Pour pouvoir piloter un CRM à l’échelle mondiale comme dans les cas d’Adidas ou de Gazprom-Energy, qui ont des activités sur toute la planète, il faut être capable de délivrer des données sensibles et confidentielles partout dans le monde, et le plus rapidement possible. Rien que par ce postulat on peut voir pourquoi les offres cloud de Salesforce se renforcent : Le développement d’un CDN interne était nécessaire, pour pouvoir garantir l’usage d’un outil Cloud partout dans le monde, sécurisé et performant. Salesforce s’est mis à proposer des offres Cloud et CDN en parallèle de leurs propres usages pour mettre à profit leur expertise acquise en interne.

                    Avec le rachat de Slack par Salesforce annoncé le 1er décembre 2020, le groupe confirme la volonté d’étoffer son panel d’outils et de services pour concurrencer sérieusement les acteurs déjà installés. L’intégration de Slack est déjà une des options proposées par le CRM. Mais ce n’est pas le premier rachat réalisé par le groupe, qui en début de décennie dernière avait commencé par acquérir des groupes versés dans la Data. Les acquisitions se sont poursuivies toute la décennie, évoluant doucement sur l’acquisition de solution SaaS comme Rebel Mail, MapAnything et Tableau en 2018 et 2019.

                    Avec ce dernier rachat, Salesforce s’inscrit plus que jamais comme un acteur grandissant et incontournable de la relation BtoB et BtoC.

                  • Cerebro Technologie se met à jour

                    Cerebro Technologie se met à jour

                     

                    Notre site fait peau neuve.

                    Notre structure est jeune et en pleine évolution. Après avoir établi une première base de travail, des partenariats solides et cohérents, et mis à profit nos talents dans le but de mener à bien les projets de nos clients, le temps était venu d’avoir un site en accord avec notre identité. Une vitrine, mais aussi un portail privilégié de contact.

                    image accueil

                    Notre identité

                    Nous sommes sans cesse en mouvement. Notre structure est jeune, mais les membres qui la composent ont de l’expérience. Chaque jour, nous nous efforçons de mieux faire. D’être plus clair. D’être plus efficace. Les projets informatiques de nos clients sont les nôtres, et en évoluant, en progressant, nous les faisons progresser avec nous. Nous nous renouvelons, car ce qui était une solution hier n’en sera plus une demain, et nous devons anticiper, être avant-gardistes.

                    Notre structure est jeune, et nous cultivons l’esprit start-up. Chacun d’entre nous est concentré sur un objectif : la réussite. Nous avons l’expérience, nous connaissons les codes. Et on se permet de les casser, pour en garder la substance, pour progresser au-delà des attentes. Nous ne pouvons pas mener la transformation digitale et l’évolution de la société si nous restons figés dans le temps sur nos acquis. La réussite de vos projets est notre plus grande fierté. C’est notre leitmotiv, et ça le restera.

                     

                    Notre vitrine

                    Nous souhaitions proposer un site qui soit en cohérence avec notre image et notre ambition. Un site efficace, accessible, qui correspond à nos valeurs. Nous voulions un média d’expertise qui soit chaleureux et en mouvement, comme nous. Ce n’est bien entendu qu’une étape sur un parcours que nous souhaitons faire avec vous.

                    Pour nous mettre en valeur, nous avons déployé sur notre site diverses sections présentant nos activités, services et domaines d’action.
                    Un formulaire de contact, et un autre de candidatures sont aussi disponibles indépendamment. Nous avons pleinement conscience que selon le contexte, nos visiteurs pourraient souhaiter rentrer en contact avec nous soit pour obtenir de plus amples informations, ou alors nous rejoindre dans nos aventures. Ainsi, nous disposons de moyens de mise en relation adaptés aux deux types de demandes et nous pourrons y donner suite de la façon la plus efficace qui soit.

                    Enfin, nous avons désormais un média approprié pour partager nos idées, valeurs et point de vue sur l’actualité. Notre tribune, où nous publions ce présent article, permettra à nos visiteurs de prendre connaissance de nos activités récentes, ainsi que de suivre nos publications, d’avoir notre vision de l’actualité IT.

                    Bienvenue sur le site de Cerebro Technologie.