Étiquette : IA

  • Le Cloud hybride

    Le Cloud hybride

    Le Cloud Hybride

    Nous vous avons déjà parlé dans cette tribune du Cloud et des principaux acteurs. Cette technologie suscite les convoitises, la centralisation et l’administration des données étant un enjeu clé. Il fut un temps où même le gouvernement français rêvait d’un Cloud souverain. Mais avez-vous entendu parler du Cloud hybride ?

    Cloud privé, Cloud public

    Le Cloud hybride se base sur le principe de répartition des charges entre deux types de serveurs Cloud, privé et public. Le Cloud privé est un Cloud individuel, ou un serveur local, administré par l’entreprise qui héberge ses données. Seule l’entreprise utilise les serveurs de ce Cloud. Le Cloud public est un espace mutualisé avec d’autres entreprises. Un Cloud hybride est un service Cloud utilisant les deux solutions, une partie privée, sécurisée, une partie publique et mutualisée, flexible.

    Selon le NIST (National Institute of Standards and Technology, rattachés au département du commerce des États-Unis), la définition de ce système est « une infrastructure Cloud composée de deux infrastructures Cloud distinctes ou plus pouvant être privées ou publiques et qui restent des entités uniques, mais sont connectées par une technologie standard ou propriétaire permettant la portabilité des données et des applications

    … à un objectif donné.

    La flexibilité. C’est le mot d’ordre de ce système. Avec le Cloud hybride, il est possible d’héberger les données sensibles sur un serveur propriétaire, sécurisé, d’un petit dimensionnement, ou d’un rendement de connexion élevé. Le reste des données plus basiques, où le contenu sera alors hébergé sur des serveurs publics, moins cher, plus flexible. Selon les besoins, il est aussi possible de transférer une partie de la charge de connexion en déportant, sur des serveurs publics temporaires, des services, comme pour contrebalancer un pic de connexion lié à une activité saisonnière. Cela peut s’apparenter à du load balancing dans certains cas, en répartissant les données non critiques. Enfin, en s’appuyant sur des solutions publiques, on réduira les coûts de maintenance sur cette partie, permettant de se concentrer sur la maintenance de la partie privée, contenant les ressources critiques.

    L’intérêt

    Les contraintes

    Il faut utiliser les architectures middleware et software adaptés permettant l’interopérabilité du service sur les différents serveurs, et donc planifier en amont l’utilisation de cette technologie. Si ce n’était pas prévu initialement, cela engendrera des coûts supplémentaires.
    Autre contrainte, la différenciation du traitement sur les serveurs. Que ce soit sur la latence de la structure ou la charge de trafic, avoir des différences et des décalages sur les différents processus peuvent être rédhibitoire et contre-productif dans certains projets ou services.

    … à un objectif donné.

    Les trois acteurs principaux, AWS, Google Cloud et Microsoft Azure plus récemment proposent des solutions mettant à profit l’hybridation du Cloud. En 2018, déjà, Google s’associait avec Cisco pour développer ces solutions. D’autres acteurs, comme Salesforce dont nous vous parlions précédemment, innovent dans le cloud pour proposer leurs solutions métier. Avec l’appui du Machine Learning, il est de plus en plus possible de créer une interopérabilité et une flexibilité entre les serveurs pour répondre au besoin grandissant des entreprises qui sont en lien, de prêt ou de loin, avec la Data.

    Les acteurs

    L’avenir ?

    Avec l’augmentation des environnements hybrides, les besoins en infrastructures automatisés ont suivis. Cela n’est pas propre au Cloud hybride, mais aussi aux services multi/omni-Cloud, qui consiste à répartir ses charges entres différents serveurs et opérateurs. Avec les besoins grandissant de la Data, en stockage et en IA pour le traitement des données, le Cloud hybride automatisé s’est trouvé naturellement un allié. Les progrès en machine learning profitant aux deux domaines, les percées de l’un profiteront à l’autre. Et c’est tout l’écosystème numérique des entreprises, voir tout le monde de l’information qui en récoltera les fruits.

    Et l’on en est qu’au début.

    je souhaite être contacté(e)

    Vous avez un projet ?

    Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

    Vous avez un projet ?

    Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

      Recopiez les lettres correctes

      captcha

    • Machine Learning

      Machine Learning

      Machine Learning

      Mentionné sur notre page traitant de notre vision de la Data, le Machine Learning est utilisé pour le traitement des données. Mais c’est un domaine vaste, et nous souhaitons revenir dessus.

      Définition

      Le Machine Learning est une discipline informatique visant à automatiser l’amélioration et l’efficacité de processus informatiques. Champ d’étude de l’intelligence artificielle, cette approche est fondée sur des approches mathématique et statistique, suite a des itérations d’actions et d’exécutions, pour donner aux ordinateurs la capacité d’améliorer leurs algorithmes à partir des résultat précédemment obtenus. Le plus important est que l’ordinateur n’est pas préalablement programmé pour résoudre les tâches, il apprend à les résoudre, essais après essais.

      … à un objectif donné.

      La où les méthodes classiques, les outils analytiques traditionnels, ne sont pas adaptés, car pas assez puissants, les programmes et « Intelligences Artificielles » issues du Machine Learning peuvent apporter leur flexibilité et leur puissance de calcul. Après avoir été rodé sur des questions et des données de plus en plus complexes, il leur est possible d’extraire des informations depuis d’importantes quantités de données de manière autonome. La où un esprit humain pourra se perdre dans la masse d’information, une « IA » deviendra plus précise et pertinente.

      L’application pour la Data

      Data et Machine Learning, un cycle vertueux

      En effet, le Machine Learning à besoin de données pour alimenter ses tests. Plus les informations fournies en entrée sont importantes, plus l’ordinateur pourra faire d’essais avec variations, et pourra recouper les réussites et les échecs, pour un tirer des modèles d’analyse et de prédiction.

      Plus on fournit de données, plus la machine devient performante. Plus elle devient performante, plus les données sont valorisées. Les données étant valorisées, leur récolte devient encore plus cruciale, et la masse d’information récoltée grandissante, les machines pourront pousser plus loin leurs analyses.

      Chez Cerebro Technologie, nous surveillons ça de près.

      je souhaite être contacté(e)

      Vous avez un projet ?

      Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

      Vous avez un projet ?

      Remplissez le formulaire et un membre de Cerebro Technologie vous contactera dans les plus brefs délais.

        Recopiez les lettres correctes

        captcha