Étiquette : data

  • Le Cloud hybride

    Le Cloud hybride

    Le Cloud Hybride

    Nous vous avons déjà parlé dans cette tribune du Cloud et des principaux acteurs. Cette technologie suscite les convoitises, la centralisation et l’administration des données étant un enjeu clé. Il fut un temps où même le gouvernement français rêvait d’un Cloud souverain. Mais avez-vous entendu parler du Cloud hybride ?

    Cloud privé, Cloud public

    Le Cloud hybride se base sur le principe de répartition des charges entre deux types de serveurs Cloud, privé et public. Le Cloud privé est un Cloud individuel, ou un serveur local, administré par l’entreprise qui héberge ses données. Seule l’entreprise utilise les serveurs de ce Cloud. Le Cloud public est un espace mutualisé avec d’autres entreprises. Un Cloud hybride est un service Cloud utilisant les deux solutions, une partie privée, sécurisée, une partie publique et mutualisée, flexible.

    Selon le NIST (National Institute of Standards and Technology, rattachés au département du commerce des États-Unis), la définition de ce système est « une infrastructure Cloud composée de deux infrastructures Cloud distinctes ou plus pouvant être privées ou publiques et qui restent des entités uniques, mais sont connectées par une technologie standard ou propriétaire permettant la portabilité des données et des applications

    … à un objectif donné.

    La flexibilité. C’est le mot d’ordre de ce système. Avec le Cloud hybride, il est possible d’héberger les données sensibles sur un serveur propriétaire, sécurisé, d’un petit dimensionnement, ou d’un rendement de connexion élevé. Le reste des données plus basiques, où le contenu sera alors hébergé sur des serveurs publics, moins cher, plus flexible. Selon les besoins, il est aussi possible de transférer une partie de la charge de connexion en déportant, sur des serveurs publics temporaires, des services, comme pour contrebalancer un pic de connexion lié à une activité saisonnière. Cela peut s’apparenter à du load balancing dans certains cas, en répartissant les données non critiques. Enfin, en s’appuyant sur des solutions publiques, on réduira les coûts de maintenance sur cette partie, permettant de se concentrer sur la maintenance de la partie privée, contenant les ressources critiques.

    L’intérêt

    Les contraintes

    Il faut utiliser les architectures middleware et software adaptés permettant l’interopérabilité du service sur les différents serveurs, et donc planifier en amont l’utilisation de cette technologie. Si ce n’était pas prévu initialement, cela engendrera des coûts supplémentaires.
    Autre contrainte, la différenciation du traitement sur les serveurs. Que ce soit sur la latence de la structure ou la charge de trafic, avoir des différences et des décalages sur les différents processus peuvent être rédhibitoire et contre-productif dans certains projets ou services.

    … à un objectif donné.

    Les trois acteurs principaux, AWS, Google Cloud et Microsoft Azure plus récemment proposent des solutions mettant à profit l’hybridation du Cloud. En 2018, déjà, Google s’associait avec Cisco pour développer ces solutions. D’autres acteurs, comme Salesforce dont nous vous parlions précédemment, innovent dans le cloud pour proposer leurs solutions métier. Avec l’appui du Machine Learning, il est de plus en plus possible de créer une interopérabilité et une flexibilité entre les serveurs pour répondre au besoin grandissant des entreprises qui sont en lien, de prêt ou de loin, avec la Data.

    Les acteurs

    L’avenir ?

    Avec l’augmentation des environnements hybrides, les besoins en infrastructures automatisés ont suivis. Cela n’est pas propre au Cloud hybride, mais aussi aux services multi/omni-Cloud, qui consiste à répartir ses charges entres différents serveurs et opérateurs. Avec les besoins grandissant de la Data, en stockage et en IA pour le traitement des données, le Cloud hybride automatisé s’est trouvé naturellement un allié. Les progrès en machine learning profitant aux deux domaines, les percées de l’un profiteront à l’autre. Et c’est tout l’écosystème numérique des entreprises, voir tout le monde de l’information qui en récoltera les fruits.

    Et l’on en est qu’au début.

    je souhaite être contacté(e)

    Vous avez un projet ?

    Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

    Vous avez un projet ?

    Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

      Recopiez les lettres correctes

      captcha

    • Machine Learning

      Machine Learning

      Machine Learning

      Mentionné sur notre page traitant de notre vision de la Data, le Machine Learning est utilisé pour le traitement des données. Mais c’est un domaine vaste, et nous souhaitons revenir dessus.

      Définition

      Le Machine Learning est une discipline informatique visant à automatiser l’amélioration et l’efficacité de processus informatiques. Champ d’étude de l’intelligence artificielle, cette approche est fondée sur des approches mathématique et statistique, suite a des itérations d’actions et d’exécutions, pour donner aux ordinateurs la capacité d’améliorer leurs algorithmes à partir des résultat précédemment obtenus. Le plus important est que l’ordinateur n’est pas préalablement programmé pour résoudre les tâches, il apprend à les résoudre, essais après essais.

      … à un objectif donné.

      La où les méthodes classiques, les outils analytiques traditionnels, ne sont pas adaptés, car pas assez puissants, les programmes et « Intelligences Artificielles » issues du Machine Learning peuvent apporter leur flexibilité et leur puissance de calcul. Après avoir été rodé sur des questions et des données de plus en plus complexes, il leur est possible d’extraire des informations depuis d’importantes quantités de données de manière autonome. La où un esprit humain pourra se perdre dans la masse d’information, une « IA » deviendra plus précise et pertinente.

      L’application pour la Data

      Data et Machine Learning, un cycle vertueux

      En effet, le Machine Learning à besoin de données pour alimenter ses tests. Plus les informations fournies en entrée sont importantes, plus l’ordinateur pourra faire d’essais avec variations, et pourra recouper les réussites et les échecs, pour un tirer des modèles d’analyse et de prédiction.

      Plus on fournit de données, plus la machine devient performante. Plus elle devient performante, plus les données sont valorisées. Les données étant valorisées, leur récolte devient encore plus cruciale, et la masse d’information récoltée grandissante, les machines pourront pousser plus loin leurs analyses.

      Chez Cerebro Technologie, nous surveillons ça de près.

      je souhaite être contacté(e)

      Vous avez un projet ?

      Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

      Vous avez un projet ?

      Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

        Recopiez les lettres correctes

        captcha

      • Data et Coronavirus

        Data et Coronavirus

        Data et Coronavirus

        Si la situation actuelle nous a appris quelque chose, c’est que la Covid19 impacte toutes les strates de la société. Tout le monde est concerné, vois ses habitudes de travail et de vie changer. Le quotidien, de part la distance imposé et le confinement, se digitalise. La conséquence : une production de données accrues, les domaines de la Data sont plus que jamais sollicité. Mais quels sont les usages que nous pouvons avoir de ces données, et comment la Data peut aider à la situation actuelle ?

        L’impact de l’épidémie sur les habitudes

        Le comportement des gens a changé depuis le début de l’année 2020. Entre les confinements, les gestes arrière, les précautions courantes, la population s’adapte à la situation. Sur Internet, aussi, les comportements changent. Plus d’achats en ligne pour palier à la fermeture des magasins, moins de réservations dans l’événementiel, des services en stand-by ou surchargés en fonction du domaine concerné. Tout cela va se traduire donc par des fluctuations d’utilisation de services, et à des changements de fréquentation sur les réseaux.

        … à un objectif donné.

        Pourquoi utiliser la Big data pour aider la gestion de la crise épidémique ? La gestion d’une ressource encore limitée, le vaccin. Il n’y aura pas sur le marché assez de vaccin pour toute la population immédiatement début 2021. Il faudra alors choisir comment vacciner la population, quelle politique sanitaire adopter. Connaitre l’impact exact de l’épidémie sur la population, s’est gagné en précision, en efficacité, réduire coûts et dépenses publiques.

        Pour obtenir des informations sur l’impact de l’épidémie, deux possibilités : soit on demande directement à la population, soit on les déduit de la masse de données générée par les charges d’utilisation et des bases de données de divers organismes.

        Le but de la collecte des informations

        La collecte directe

        Pour demander directement à la population, divers pays comme la France ou le Royaume-Uni utilise une application mobile. « Stop-Covid » ou « TousAntiCovid« , COVID Symptom Study, autant d’applications qui par le renseignement de l’emplacement géolocalisé, la fréquentation, l’indication de l’état de l’utilisateur permet d’avoir des informations directes et cohérentes. Mais il y a un problème de taille, ces informations sont discriminantes, car autant l’échantillon d’utilisateur est suffisant pour en tirer des statistiques, autant il est basé sur un public volontaire. Rien qu’en France, la part de la population « complotiste » réfutant les actions scientifiques, ou étant réfractaire aux actions de protection est importante. Cet été a été le théâtre de manifestation anti masques dans le monde.

        … à un objectif donné.

        Alors pour avoir des données plus globales et justes, il convient d’avoir un angle de recherche plus large, en recoupant les bases de données des habitudes numériques, des trafics sur les différents services. Mais là ou une collecte directe est centralisée, la récupération et le recoupement des données demandent à obtenir de sources différentes les bases d’informations pertinentes. Certaines bases de données publiques peuvent servir de point de départ pour les gouvernements, comme les administrations, les hôpitaux, ou bien les services financiers. Mais pour ce qui est des charges de services tiers, les bases de données des opérateurs ou des hébergeurs, l’accès aux bases de données privées sont plus compliqués, outre l’aspect financier.

        La collecte induite

        Le traitement des données

        Une fois la collecte des données, il faut interpréter celle-ci. Aux résultats, vont s’ajouter des choix pratiques, politiques et éthiques.

        Dans le cas de la France, il a été décidé d’agir par solidarité envers les personnes les plus âgées, et les campagnes de vaccination se feront par tranche d’âges, des plus agées au plus jeune.

        Pour d’autres pays, comme les États-Unis et le Royaume-Uni, les gouvernements ont décidé de faire appel à des spécialistes du traitement de la donnée de masse, la société Palantir. Le gouvernement américain a décidé de permettre à la société, déjà partenaire des services de sécurité comme la CIA, FBI, NSA… , d‘analyser les données anonymisées recueillies pour aider les autorités locales à définir des plans de vaccinations optimisés.

        … à un objectif donné.

        Nous verrons les résultats des différentes campagnes de vaccinations au cours de l’année 2021. Plusieurs modèles politiques vont être en concurrence : des campagnes solidaires visant les plus fragiles, d’autres politiques orientés économies et démagogie, et enfin celles pragmatiques, basées sur l’analyse des masses de données pour être la plus efficiente possible. Mais 2021 va probablement être l’année où la Data va gagner en importance et en influence sur la vie de tous les jours.

        Les résultats

        je souhaite être contacté(e)

        Vous avez un projet ?

        Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

        Vous avez un projet ?

        Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

          Recopiez les lettres correctes

          captcha