Importazioni massive
Introduzione
La seguente sezione descrive lo standard per l'importazione massiva di dati da sistemi esterni e della loro integrazione all’interno della piattaforma. L'importazione viene attivata in corrispondenza di specifici eventi applicativi (ad esempio autenticazione dell’utente o trigger di sistema quali eventi o webhook) e gestisce la sincronizzazione dei record tra i provider esterni e il sistema di archiviazione locale.
Trigger Pattern
Event Source
Componente responsabile della generazione di eventi, derivanti da interazioni utente o trigger applicativi/sistemici (es. autenticazione, webhook, scheduler).
Event Handler
Modulo di orchestrazione che riceve eventi dall’Event Bus, li interpreta e instrada i flussi applicativi corrispondenti.
Authentication Flow
Flusso dedicato alla gestione dei meccanismi di autenticazione e autorizzazione necessari per l’accesso a sistemi o provider esterni.
Import Flow
Flusso che implementa la logica di acquisizione, trasformazione e integrazione dei dati provenienti da sistemi esterni nel dominio applicativo locale.
Three-Phase Import Pattern
Il pattern di importazione si suddivide in tre fasi:
Fase 1: Preparazione (Request Builder)
Input: Parametri contestuali (utente, tenant, configurazioni applicative)
Output: Richiesta strutturata per il sistema esterno
ResponsabilitĂ : Composizione della richiesta (payload, intestazioni, endpoint di destinazione)
Fase 2: Esecuzione (Provider Communication)
Input: Richiesta preparata
Output: Risposta del sistema esterno
ResponsabilitĂ : Invocazione del canale di comunicazione (es. HTTP, SOAP, gRPC), gestione degli errori, raccolta di metriche e tracciamento delle prestazioni
Fase 3: Elaborazione (Data Processing)
Input: Risposta del sistema esterno
Output: EntitĂ normalizzate e integrate nel dominio applicativo locale
ResponsabilitĂ : Mappatura, arricchimento e persistenza dei dati
Data Processing Pattern
Il pattern di importazione e gestione dei dati si articola in sei fasi principali, ognuna con responsabilitĂ specifiche e complementari. Questo approccio garantisce ordine, chiarezza e tracciabilitĂ del processo end-to-end, dalla ricezione dei dati esterni fino alla loro persistenza e notifica nel sistema locale.
Data Lookup
La prima fase prevede la ricerca e l’identificazione di entità già presenti nel sistema, al fine di determinare se i dati ricevuti corrispondono a record esistenti.
Update Pattern
Se un’entità esistente viene individuata, entra in gioco la strategia di aggiornamento. In questa fase vengono applicate le regole di aggiornamento per mantenere i dati coerenti e allineati con le informazioni più recenti.
Create Pattern
Qualora non venga rilevata alcuna corrispondenza, il sistema procede alla creazione di nuove entitĂ . Questa fase consente di ampliare il patrimonio informativo con record del tutto nuovi.
Data Enrichment
Una volta individuate o create le entità , queste possono essere arricchite con informazioni complementari. L’arricchimento può attingere a fonti esterne o interne per completare i dati e aumentarne il valore informativo.
Persistence
Terminata la fase di arricchimento, le entità normalizzate vengono salvate nel livello di persistenza del sistema. Questa operazione assicura la disponibilità dei dati per le elaborazioni successive e per l’uso applicativo.
Event Publish
Infine, ogni modifica o creazione viene notificata all’infrastruttura di messaggistica tramite la pubblicazione di eventi. In questo modo altri componenti o servizi possono reagire in tempo reale ai cambiamenti avvenuti.
External Data Enrichment Pattern
Il processo di arricchimento dei dati si fonda su diverse fonti informative e di configurazione. Ognuna di esse fornisce un contributo specifico alla costruzione dell’entità finale, garantendo accuratezza, coerenza e contestualizzazione rispetto al dominio applicativo.
Dati Core dal Provider
Contiene le configurazioni specifiche di tenant e servizio, consentendo di adattare la logica di arricchimento al contesto applicativo e garantendo flessibilitĂ multi-tenant.
Dataset Esterni
Rappresenta una possibile fonte esterna di supporto, costituita da dataset o sistemi di categorizzazione che possono essere utilizzati per classificare e organizzare i dati secondo criteri predefiniti. L’impiego di questa fonte è opzionale e non sempre necessario: viene adottato solo nei casi in cui la classificazione o la segmentazione delle entità porti un valore aggiunto al processo di arricchimento.
Last updated
Was this helpful?