دوره مهندسی داده برای ورود عملی به دنیای بیگ دیتا و زیرساختهای داده طراحی شده است؛ از نقش مهندس داده، کار با لینوکس، پایتون و جاوا، تا پایگاههای NoSQL مثل MongoDB، دادههای جریانی با Kafka، تحلیل روی ClickHouse و Doris و پیادهسازی ETL/ELT و پردازش توزیعشده با Spark ،NiFi و Airflow همگی در قالب سناریوهای واقعی آموزش داده میشوند. این دوره بهصورت حرفهای و پروژهمحور در نیک آموز ارائه میشود .
این فصل به عنوان دروازه ورود به دنیای مهندسی داده، اهمیت فزاینده دادههای حجیم و متنوع (بیگدیتا) و چالشهای ناشی از ذخیرهسازی و پردازش آنها را بررسی میکند. در این بخش، شما با مسیر شغلی مهندس داده، تفاوتهای آن با نقشهایی مانند DBA و DevOps، و نقش حیاتی این تخصص در عصر هوش مصنوعی آشنا خواهید شد. همچنین، مفاهیم کلیدی مانند ذخیرهسازی و پردازش توزیعشده و مقایسه مدلهای ذخیرهسازی سطری و ستونی و مدلهای پردازشی Batch و Streaming به منظور ایجاد یک دیدگاه جامع از اکوسیستم دادههای مدرن، معرفی میشوند.
از آنجایی که اغلب پلتفرمها و ابزارهای بیگدیتا و پردازش توزیعشده بر روی سیستمعامل لینوکس اجرا میشوند، تسلط بر آن برای مهندسان داده ضروری است. این فصل اهمیت لینوکس را در زیرساختهای دادهای توضیح میدهد و بر روی مهمترین توزیعها (مانند اوبونتو) متمرکز میشود. شما مهارتهای عملی مورد نیاز برای کار با لینوکس، از جمله نصب، مدیریت اولیه توزیعهای مختلف، تنظیمات شبکه و درک مفاهیم پارتیشنبندی و مدیریت دیسک را برای آمادهسازی محیطهای کاری دادهمحور، فرا خواهید گرفت.
این سرفصل به معرفی و بررسی دو زبان برنامهنویسی پایتون و جاوا به عنوان ستونهای اصلی ابزارهای مهندسی داده میپردازد. این بخش بر تفاوت مهارتهای برنامهنویسی مورد نیاز مهندس داده در مقایسه با مهندس نرمافزار تأکید دارد، در حالی که نکات و اصطلاحات مهم طراحی نرمافزار را جهت توسعه کدهای پایدار و بهینه، آموزش میدهد. بخش عملی شامل کدنویسی و اجرای سناریوهای رایج پردازش داده با هر دو زبان و همچنین استفاده از گیت برای کنترل نسخه کدها و مدیریت پروژهها خواهد بود تا شرکتکنندگان آمادگی لازم برای کار با فریمورکهای مختلف دادهای را کسب کنند.
این فصل بر تنوع و اهمیت پایگاههای داده NoSQL تمرکز دارد، ویژگیهای آنها را در مقابل مدلهای سنتی ACID بررسی کرده و مفاهیمی مانند BASE را توضیح میدهد. بخش عملی شامل کار با پایگاه داده MongoDB و اصول مدلسازی داده در آن است. در ادامه، مبحث دادههای جریانی (Stream Data) و چالشهای آن معرفی میشود و پلتفرم Apache Kafka به عنوان ابزار اصلی ذخیرهسازی جریانی، ساختار، کاربردها و مؤلفههای آن (مانند Kafka Connect) مورد بررسی قرار میگیرد. در نهایت، معماری و نحوه کار با Elasticsearch برای مدیریت و جستجوی دادههای حجیم به عنوان یک ابزار قدرتمند تحلیلی، آموزش داده میشود.
این بخش به معرفی و کاربرد پلتفرمهای تحلیلی و انبارهای داده مدرن که برای پردازش و تحلیل کارآمد دادههای حجیم طراحی شدهاند، میپردازد. ابتدا مفاهیم مدلسازی داده در انبار داده و تفاوتهای کلیدی بین ذخیرهسازی Row-base و Column-base که سرعت کوئریها را تحت تأثیر قرار میدهند، مرور میشوند. سپس، شرکتکنندگان با پلتفرمهای ستونی با کارایی بالا مانند ClickHouse و Apache Doris آشنا میشوند و نحوه کار، ویژگیها و مزایای استفاده از آنها در محیطهای تحلیلی پیچیده برای ارائه گزارشگیریهای سریع و پاسخگویی به کوئریهای تحلیلی را فرا میگیرند.
این فصل هسته اصلی کار یک مهندس داده را تشکیل میدهد و فرآیندهای حیاتی ETL و ELT و اهمیت کیفیت داده را پوشش میدهد. این بخش بر روی پیادهسازی عملی سناریوهای آمادهسازی دادهها با استفاده از دستورات SQL و یک زبان برنامهنویسی تمرکز میکند. همچنین، استفاده از ابزارهای خاصی مانند Apache NiFi برای طراحی Data Flowهای جمعآوری داده و Apache Spark به عنوان یک فریمورک پردازش توزیعشده مقیاسپذیر برای اجرای سناریوهای مختلف Spark SQL و خواندن/نوشتن در منابع دادهای NoSQL و تحلیلی آموزش داده میشود. در پایان، مفاهیم مربوط به فرمتهای بهینه ذخیرهسازی مانند ORC و Parquet و روشهای Scheduling تسکهای دادهای با استفاده از ابزارهایی مانند Airflow بررسی خواهند شد.
معمار کلان داده در ایرانسل از ۱۴۰۰ تا کنون. مشاور مهندسی داده در تکنولایف از ۱۴۰۳. مشاور مهندسی داده در زپ از ۱۴۰۲. مدرس کلان داده و NoSQLها از سال ۱۳۹۷ تاکنون. معمار کلان داده در داتین از ۱۳۹۹ تا ۱۴۰۰. مهندس ارشد داده و Oracle DBA در شرکت پژواک از ۱۳۹۴ تا ۱۳۹۸. مشاور […]
ذخیره نام، ایمیل و وبسایت من در مرورگر برای زمانی که دوباره دیدگاهی مینویسم.
Δ
11.025.000 تومان – 39.025.000 تومان
Manage your cookie preferences below:
Essential cookies enable basic functions and are necessary for the proper function of the website.
These cookies are needed for adding comments on this website.
Google Tag Manager simplifies the management of marketing tags on your website without code changes.
Statistics cookies collect information anonymously. This information helps us understand how visitors use our website.
Clarity is a web analytics service that tracks and reports website traffic.
Service URL: clarity.microsoft.com
SourceBuster is used by WooCommerce for order attribution based on user source.