Skip to content

Latest commit

 

History

History
47 lines (24 loc) · 7.05 KB

the-data-engineering-pipeline-6f7a306fcfdc.md

File metadata and controls

47 lines (24 loc) · 7.05 KB

数据工程管道

原文:https://pub.towardsai.net/the-data-engineering-pipeline-6f7a306fcfdc?source=collection_archive---------1-----------------------

一篇关于围绕构建数据管道展开深入讨论的博客

照片由 JJ 英Unsplash

数据工程师是任何数据驱动型公司的发动机室的核心。该博客将提供数据工程管道的高级概述,包括帮助推动数据驱动型组织的最佳实践和工具。

什么是数据管道?

数据管道是处理、清理和分析数据所必需的一系列步骤。数据通常存储在数据库中,这意味着数据管道通常从数据库开始。这通常是数据管道的第一步,因为这是最容易的一步。第二步通常是将数据从数据库加载到数据仓库中。数据仓库是一个为数据分析而优化的独立数据库。数据仓库通常是数据分析师花费大部分时间的地方。将数据加载到数据仓库后,必须对其进行清理。清理过程可能涉及删除重复数据、确保数据格式一致以及确保数据准确无误。清理数据的过程通常是非常手动的,这需要大量的资源。数据管道的最后一步是分析。这就是数据用于决策的地方。数据分析师通常与数据科学家合作分析数据,以便企业做出更好的决策。

数据管道是任何数据分析项目的重要组成部分。它们处理收集、清理、转换和存储数据过程中涉及的所有步骤和工具。过去,数据管道仅用于大型企业项目。但近年来,开源工具和云计算服务的兴起,如 AWS 和 Google Cloud,使得构建自己的数据管道比以往任何时候都更容易。

ETL 管道的关键组件。

您可能正在考虑建立一个 ETL 管道,或者已经在这样做了。但是什么是 ETL 管道呢?它的关键组件是什么?ETL 管道和数据集成管道有什么区别?这篇博客旨在帮助您理解 ETL 管道的主要组件和数据集成管道的组件。ETL 代表提取转换负载。从源系统中提取数据,将其转换成一种格式(比如 CSV),然后加载到目标系统中。数据集成管道是对数据执行的一系列步骤或过程。这可以通过使用 ETL 工具或脚本语言来完成。

我是 ETL 管道的超级粉丝。这是思考数据工程生命周期的一种简单方式,也是向业务利益相关者传达您的工作及其重要性的一种很好的方式。如果您曾经在数据仓库中工作过,您会知道 ETL 管道不仅仅是您编写的 SQL 的一个花哨的名称。它是从数据源到数据库、清理、转换数据并准备好进行查询的整个过程。它是一个管道,因为它是一个线性过程,就像管道一样,它通常有多个步骤来完成。

数据管道的可视化地图。

数据管道是一组按预定义顺序排列的数据服务组件,它获取原始输入数据,并使其尽快可用于数据分析。数据管道的可视化表示可以帮助您管理和理解数据管道的组件以及它们之间的相互关系。数据管道由数据服务组成。数据服务可以是一个组件,如数据库、数据仓库、文件系统或消息队列。数据服务由数据流连接。数据服务组件通常从一个或多个输入数据流中读取,并向一个或多个输出数据流中写入。数据流是一个通道,数据可以通过它从源组件流向目标组件。数据流是单向的。数据管道可以用图形方式显示为由数据流连接的一系列数据服务组件。

数据管道是流入应用程序的数据以及如何将其转换为最终消费格式的可视化映射。数据管道是一个概念模型,它抽象出任何物理基础设施或软件层细节。这是一个一致的、可重复的捕获、转换和加载数据的过程。数据管道是将数据从原始来源转换为可消费格式所涉及的组件的高级视图。数据管道是数据工程过程中的一个重要步骤。拥有一个定义良好的数据管道将有助于您更好地跟踪进入您的应用程序的数据,并更容易可视化任何可能出现的数据问题。当您试图追踪任何数据错误的来源时,这最终可以节省您的时间和金钱。

如何让你的 ETL 管道高效?

在本系列的第一部分中,我们讨论了为什么数据工程不是一次性的过程,而是一个持续的过程。我们还讲述了最常见的数据流,以及如何确定哪些数据应该存储在哪个系统中。现在,我将深入探讨数据管道的创建,以及如何使其尽可能高效。我还将提供一些技巧,告诉您如何处理大量数据,以及一旦数据进入数据库后该如何处理。

提取、转换和加载(ETL)是数据工程师和数据分析师用来从多个数据源提取数据、转换数据并将其加载到数据仓库中的过程。数据工程师和数据分析师经常努力按照数据摄取的速度来扩展他们的 ETL 管道。这是因为用于执行 ETL 操作的过程通常是临时的和非标准化的。这篇博客将描述如何使你的 ETL 管道高效。

ETL 管道是将数据从一个地方移动到另一个地方的过程。这并不一定意味着您正在通过网络移动数据,而是将数据从一种形式转换为另一种形式。在某种程度上,ETL 就像是数据源和数据消费者之间的桥梁。它通常采用带有一系列数据转换的工作流的形式。ETL 是一个非常复杂的过程,实现它不是你不熟悉各种主题就能做到的,比如数据仓库和机器学习。然而,它不必如此复杂。有一些简单的方法可以让您的 ETL 过程更加高效和轻松。

数据管道的比较。

数据管道是数据工程中非常常见的一部分。随着许多数据工程师不断地阅读和撰写博客文章、论坛和代码,许多人想要分享他们的观点也就不足为奇了。这些意见有的好,有的不太好。我写这篇博客是为了分享我对什么是好的数据管道的看法。我在我的时间里建立了许多数据管道,我有机会从我的同事那里看到许多数据管道。我也有机会和很多数据工程师谈论数据管道。谈了这么多之后,我对什么是好的数据管道有了自己的看法,我想和大家分享一下。

数据工程管道是任何数据驱动的应用程序的支柱。它们允许成功的机器学习和数据分析所需的快速可靠的数据摄取和转换。在这篇文章中,我们比较了一些数据管道的架构,包括 Spark、Presto、MapReduce 和 Flink。

结论

作为数据工程师,我们经常面临构建数据管道的任务,以帮助我们高效地接收和处理数据。在构建数据管道时,有几件重要的事情需要记住。我在下面的图表中概述了我认为在构建数据管道时最重要的考虑因素。我希望这能帮助你建立你的下一个数据管道!如果您有任何问题或意见,请随时联系我。