Sfrutta i flussi di dati in tempo reale.
Sfrutta tutto il potenziale dei dati di analisi in streaming e in tempo reale grazie all'efficacia dello streaming Spark senza server e dell'apprendimento automatico. L'integrazione Talend Real-time Big Data genera codice nativo eseguibile in ambiente cloud, ibrido e multi-cloud, per iniziare subito a lavorare con Spark Streaming e trasformare tutte le tue pipeline di dati in batch in informazioni fruibili e affidabili, in tempo reale.
Novità di Big Data Talend Fall '18
Real-time Big Data Platform Funzionalità
Agile integrazione delle applicazioni (versione software scaricabile)
- Creazione mediante trascinamento della selezione di percorso, dati e servizi Web/REST
- Consegna e instradamento di messaggi ed eventi basata su modelli di integrazione aziendale (EIP)
API Development
- Progettazione API basata su contratto
- Creazione automatica di simulazioni API
- Automazione test API
Componenti
- Gestione file senza script: apertura, spostamento, compressione e decompressione
- Controllo e orchestrazione di flussi e integrazioni di dati con lavori master
- Mappatura, aggregazione, ordinamento, arricchimento e unione di dati
- Supporto standard: REST, SOAP, OpenID Connect, OAuth, SAML, WSDL, SWAGGER(tm) e molti altri
- Trasporti/protocolli supportati: HTTP, JMS, MQTT, AMQP, UDP, Apache Kafka, WebSphere MQ e molti altri
- Modelli di integrazione aziendale per mediazione dei servizi, instradamento e messaggistica”,Componenti
Connettori
- Cloud: Amazon Web Services (AWS), Microsoft Azure, Google Cloud Platform e molti altri
Gestione e monitoraggio
- Gestione implementazione e collaborazione in team
- Gestione di utenti, gruppi, ruoli, progetti e licenze
- Controllo del ciclo di vita su Amazon EC2
- Punti di controllo, recupero da errori
- Gestione del contesto (sviluppo, QC, prod.)
- Monitoraggio dell’attività
Licenza
- Disponibile come servizio cloud e software scaricabile
Preparazione e stewardship dei dati
- Tracciamento e mascheramento dei dati con sicurezza basata sui ruoli
- Funzioni di pulizia e arricchimento
- Definizione di modelli e semantica dei dati e conseguente profilazione dei dati
- Definizione di modelli e semantica dei dati e conseguente profilazione dei dati. Definizione e applicazione di regole (survivorship, aggiornamenti in blocco)
- Definizione e applicazione di regole (survivorship, aggiornamenti in blocco)
- Definizione di ruoli utente, flussi di lavoro e priorità, assegnazione e delega di compiti, inserimento di tag e commenti
- Definizione di ruoli utente, flussi di lavoro e priorità, assegnazione e delega di compiti, inserimento di tag e commenti
- Integrazione di funzionalità di governance e stewardship nei flussi di integrazione dei dati e gestione dei rifiuti
- Integrazione di funzionalità di governance e stewardship nei flussi di integrazione dei dati e gestione dei rifiuti
- Integrazione di funzionalità di governance e stewardship nei flussi di integrazione dei dati e gestione dei rifiuti
- Integrazione di procedure di human certification e risoluzione errori nei processi MDM
- Deduplicazione di dati su vasta scala con tecnologia di apprendimento automatico
- Deduplicazione di dati su vasta scala con tecnologia di apprendimento automatico
- Azioni di risoluzione di errori di verifica e monitoraggio dei dati Monitoraggio dello stato di avanzamento delle campagne Annullamento/ripristino di azioni in base alle esigenze aziendali
Profilazione avanzata dei dati
- Rilevamento di modelli di frodi secondo la legge di Benford
- Statistiche avanzate con soglie degli indicatori
- Analisi di set di colonne
- Analisi avanzata delle corrispondenze
- Analisi di correlazione di colonne temporali
Qualità dei Big Data
- Pulizia, profilazione, mascheramento, analisi e corrispondenza dei dati su Spark e Hadoop (solo Hybrid e Elastic)
Qualità dei dati e governance
- Analisi e profilazione dei dati con diagrammi grafici e drill-down
- Risoluzione automatica di errori di qualità dei dati e applicazione di regole
- Pulizia e mascheramento dei dati
- Portale per la qualità dei dati con monitoraggio, report e dashboard
- Survivorship completa
- Campionamento dei dati
Strumenti di progettazione e produttività
- Mappatura visuale per dati JSON, XML e EDI complessi su Spark
- Tool di progettazione Spark e MapReduce
- Supporto della distribuzione dinamica
- Tool di sviluppo basati su Eclipse e Job Designer
- Collaborazione in team con repository condiviso
- Integrazione continua/Rilascio continuo
- Verifica, confronto lavori, analisi dell’impatto, test, debugging e messa a punto
- Metadata Bridge per l’importazione/esportazione e la gestione centralizzata dei metadati
- Distant Run e parallelizzazione
- Schema dinamico, joblet riutilizzabili e progetti di riferimento
- Supporto ETL ed ELT
- Procedure guidate e visualizzatore di dati interattivo
- Controllo delle versioni
- Change data capture (CDC)
- Documentazione automatica
Controlla i costi dei tuoi progetti di integrazione dei dati.
Flessibile
abbonamenti annuali o mensili
Prevedibile
addebito per utente, anziché per
volumi di dati o connettori
Semplice
costi totali di proprietà ridotti del 50% con
un'unica soluzione in esecuzione nel cloud
Risorse disponibili
Contattaci
Per informazioni sulla raccolta e utilizzo delle informazioni personali, sulle pratiche in materia di privacy e sicurezza e sui diritti di protezione dei dati personali esercitati da Talend, vi preghiamo di voler consultare la nostra Privacy Policy.