Accueil Communiqué Traitement autonome de données à haute capacité

Traitement autonome de données à haute capacité

Le Q.core est le nouveau produit innovant de Gantner destiné à une architecture de données en continu haute performance pour les tests et mesures, la surveillance des actifs et les applications d’intelligence artificielle. Une architecture de données en continu est un cadre de composants logiciels construit pour traiter des données étendues provenant de sources multiples. Alors que les solutions traditionnelles d’acquisition de données se concentrent sur le traitement des données par lots, une architecture de données en continu consulte les données immédiatement au moment où elles sont générées.
Lecture : 3 minutes

Le Q.core est un contrôleur d’acquisition de données hautes capacités doté de six ports Ethernet pour la connexion de Q.stations décentralisées (éditeurs), d’un port de liaison montante pour les clients de données (abonnés), de deux ports USB, d’un HDMI (en option) et d’un disque dur interne de 1 To, le tout dans un espace de montage en rack de 19 pouces de 1U (1,75″). 

Le traitement de flux à l’aide d’un Q.core offre plusieurs avantages que les autres plateformes d’acquisition de données ne peuvent pas offrir :

  • Évolutivité facile des données – Le Q.core est un backend de données évolutif permettant de fusionner les données multifréquences de milliers de capteurs en un flux synchronisé, éliminant ainsi la nécessité de projets complexes d’ingénierie des données.
  • Analyse de données multi-sources – La détection de schémas dans le temps, par exemple la recherche de tendances, nécessite un traitement et une analyse continus des données. Q.core permet l’évaluation en ligne de grands volumes de données de mesure et de canaux arithmétiques provenant de plusieurs Q.stations simultanément.
  • Surveillance des données à distance – Avec la fonctionnalité de tableau de bord en ligne de Q.core, vous n’avez pas besoin d’être à proximité de votre système d’acquisition de données pour surveiller vos données de mesure. Grâce au serveur web intégré, vous pouvez facilement accéder à votre tableau de bord et même le partager avec une équipe d’ingénieurs ou votre client. 
  • Flexibilité et prise en charge de multiples cas d’utilisation – Q.core est une solution collaborative permettant d’améliorer l’accessibilité des données de mesure grâce à la prise en charge de multiples formats de fichiers (UDBF, DAT, FAMOS, MATFile, etc.), et l’interopérabilité avec les systèmes de supervision via les protocoles Ethernet industriels (Modbus TCP/IP, OPC UA, DDS) ou des plugins de protocole personnalisés.
  • Acquisition de données autonome – Q.core prend en charge le stockage intégré des données sur son SSD interne ou sur un disque dur externe USB en option, ce qui permet de ne pas dépendre d’un PC Windows pour les tâches d’acquisition de données critiques. Si vous le souhaitez, le Q.core peut fonctionner entièrement déconnecté du réseau de l’entreprise, ce qui réduit les menaces de cybersécurité.
  • Intégration facile au GI.cloud avec service à distance.

Découvrez d’autres solutions de Gantner Instruments.

Lire la suite
Sur le même sujet

L’utilisation de plusieurs méthodes d’estimation des incertitudes de mesurage est-elle un choix ou une obligation ?

C’est pour cela que le niveau de risque accepté pour nos mesurages, essais, analyses a pris une importance majeure et un autre chemin de réflexion vers la recherche de moyens et d’outils de validation de nos résultats. Généralement, la détermination des incertitudes s’effectue avec la méthode GUM (Guide to the expression of uncertainty in measurement) […]

Caractérisation vibratoire d’un environnement éolien en opération

Afin de répondre à ces sollicitations, Metravib Engineering met à disposition toutes ses compétences en vibrations et fiabilité des structures, ainsi que tout matériel approprié pour accompagner ses clients depuis la définition de l’instrumentation la plus pertinente, l’installation ou la mise à disposition des plateformes d’enregistrement sur une période donnée, le post-traitement de données massives contextualisées, l’analyse et le diagnostic formulés par nos experts sur ces données opérationnelles. […]