دوره آموزشی آنلاین مهندسی داده پیشرفته

آموزش ابزارهای پیشرفته مهندسی داده

ویژگی‌های دوره

هدیه ویژه ‌ ثبت‌نام

با ثبت‌نام دوره آنلاین کوئری‌نویسی در SQL Server،
دوره سنگ‌بنای پایگاه داده را هدیه بگیرید...

هدیه ویژه ‌ ثبت‌نام

با ثبت‌نام دوره آنلاین کوئری‌نویسی در SQL Server ،
دوره سنگ‌بنای پایگاه داده را هدیه بگیرید...

مخاطبان دوره

مزایای دوره آنلاین

آنلاین (پخش زنده)

مشاهده دوره به صورت زنده و ارتباط مستقیم با استاد

بدون ترافیک

صرفه‌جویی در زمان، هزینه و انرژی در طول دوره

شبکه سازی

ارتباط با سایر شرکت‌کنندگان و توانایی تعامل

گام به گام

امکان آموختن گام به گام، روان و با سرعت استاندارد

پرسش و پاسخ

دسترسی هم‌زمان به استاد برای پرسش و پاسخ سریع

دسترسی‌پذیری

دسترسی به کلاس، در هر شرایط زمانی و مکانی

سرفصل‌های آموزشی

۱۰ فصل

۱۶ جلسه

۳۲ ساعت

۱

آشنایی با دریاچه‌داده و ایجاد یک Lakehouse با آپاچی IceBerge و Minio

در بسیاری از کاربردهای نوین پردازش اطلاعات، علاوه بر نیاز به ذخیره اطلاعات به صورت خام، باید بتوانیم ساختاری برای ذخیره این داده‌ها به کار بریم که در صورت نیاز به جستجوی اطلاعات در این داده‌ها، امکان جستجوی موثر و سریع آنها نیز فراهم باشد.

در این راستا در یک دهه گذشته، ابتدا مفهوم دریاچه داده ایجاد شد که مکانیزم‌های اولیه برای ذخیره داده‌های خام را فراهم می‌کرد اما استفاده موثر از داده‌های خام نیازمند مکانیزم‌های پیشرفته بود. در چند سال اخیر با ایده جدید Lakehouse که ترکیب Warehouse با Data Lake‌ بود، این فضا به کلی تغییر کرد و امروزه برای ساخت دریاچه‌های داده، معمولا از Lakehouse استفاده میکنیم.

در این دوره با مرور این مفاهیم و سه ساختار اصلی ذخیره داده‌ها در این حوزه یعنی Deltalake, IceBerge‌ و Hudi به طراحی یک Lakehouse به کمک Minio و Iceberge‌ خواهیم پرداخت

Minio به عنوان یک فضای ذخیره سازی توزیع شده و مبتنی بر پروتکل S3‌ آمازون عمل خواهد کرد و آپاچی آیس‌برگ، به ما امکان ذخیره و تحلیل داده‌های خام را خواهد داد.

آشنایی با این مفاهیم به شما کمک می‌کند تا بتوانید یک سیستم دریاچه داده موثر و قابل اطمینان با استفاده از Minio و Apache Iceberg ایجاد کرده و داده‌های خام را به صورت موثر مدیریت کنید.

۲

آشنایی با مفاهیم دیتا کاتالوگ و کار عملی با OpenMetadata

اطلاعات به چالشی بزرگ تبدیل شده است. دیتا کاتالوگ‌ها به عنوان ابزاری حیاتی در این زمینه ظهور کرده‌اند. این سیستم‌ها با فهرست‌بندی و توصیف تمامی منابع داده‌ای سازمان، از پایگاه‌های داده گرفته تا فایل‌های اسناد و گزارش‌ها، امکان جستجو، دسترسی و مدیریت مؤثر داده‌ها را فراهم می‌کنند.

 دیتا کاتالوگ‌ها نه تنها به بهبود بهره‌وری و کارایی کمک می‌کنند، بلکه با ایجاد شفافیت در مورد منشأ، کیفیت و کاربرد داده‌ها، به تصمیم‌گیری‌های آگاهانه‌تر و مبتنی بر داده نیز یاری می‌رسانند. در نهایت، استفاده از دیتا کاتالوگ‌ها در سازمان‌های با منابع داده‌ای متعدد، گامی اساسی در جهت حکمرانی داده و بهره‌برداری حداکثری از این سرمایه ارزشمند است.

مطالب زیر در این بخش مورد بررسی قرار خواهند گرفت:

  ۱.  آشنایی با مفهوم دیتا کاتالوگ و تاریخچه آن

  ۲.  بررسی نقش دیتا کاتالوگ در مدیریت داده‌ها و تجزیه و تحلیل آن‌ها.

  ۳. آشنایی با جایگاه OpenMetadata و معرفی آن

  ۴. آموزش نصب و پیکربندی OpenMetadata برای استفاده در محیط‌های مختلف.

  ۵. ارائه مثال‌ها و تمرین‌های عملی برای استفاده از OpenMetadata در مدیریت دیتا کاتالوگ و متاداده‌ها.

۳

نکات پیشرفته در طراحی و مدلسازی داده‌ها در کلیک‌هوس

ClickHouse به عنوان یک پایگاه‌داده تحلیلی بسیار سریع و توزیع شده، قابلیت‌های پیشرفته‌ای در زمینه طراحی و مدلسازی بهینه داده‌ها ارائه می‌دهد. برای کاربردهای پیشرفته و حجم داده زیاد، طراحان داده باید بر تکنیک‌های خاص مانند پارتیشن‌بندی هوشمند، استفاده از ایندکس‌های اسکیپ و استراتژی‌های فشرده‌سازی پیچیده مسلط باشند.

 کار عملی با انجین‌های تخصصی ClickHouse، مانند AggregationMergeTree و ReplacingMergeTree، امکان بهینه‌سازی عملکرد برای سناریوهای خاص را فراهم می‌کند. تسلط بر این مفاهیم و تکنیک‌ها، طراحان را قادر می‌سازد تا از قابلیت‌های قدرتمند ClickHouse در پردازش حجم عظیم داده‌ها با سرعت بالا، به طور بهینه بهره‌برداری کنند.

در این بخش از دوره مهندسی داده به بررسی این قابلیت‌های پیشرفته و کار با توابع پردازش JSON برای خواندن داده‌های باساختار پیچیده (داده‌‌هایی که در کاربردهای عملی معمولا از کافکا دریافت می‌شوند) خواهیم پرداخت.

۴

آشنایی با StarRocks به عنوان یک دیتابیس تحلیلی نوین

StarRocks یک سیستم مدیریت پایگاه داده تحلیلی مدرن است که برای پردازش داده‌های حجیم و پیچیده طراحی شده است. این پلتفرم با ترکیب قابلیت‌های پردازش تحلیلی آنلاین (OLAP) و به‌روزرسانی سریع داده‌ها (موضوعی که در کلیک‌هوس و دروید به سختی انجام پذیر است)، راه حلی جامع برای چالش‌های تحلیل داده در زمان واقعی ارائه می‌دهد.

 یکی از ویژگی‌های برجسته StarRocks، توانایی آن در به‌روزرسانی داده‌ها با سرعت بالاست که امکان تحلیل‌های به‌روز و دقیق را فراهم می‌کند. علاوه بر این، StarRocks از طیف گسترده‌ای از منابع داده پشتیبانی می‌کند، از جمله سیستم‌های فایل توزیع‌شده مانند HDFS، پایگاه‌های داده رابطه‌ای مانند MySQL و PostgreSQL، و حتی سیستم‌های پیام‌رسانی مانند Kafka. این قابلیت اتصال گسترده، StarRocks را به گزینه‌ای ایده‌آل برای محیط‌های داده‌ای ناهمگون تبدیل می‌کند. معماری ستونی و توزیع‌شده StarRocks، همراه با موتور پرس‌وجوی بهینه‌شده آن، امکان اجرای کوئری‌های پیچیده روی حجم عظیمی از داده‌ها را با سرعت بالا فراهم می‌کند. همچنین، این سیستم از تکنیک‌های پیشرفته مانند فشرده‌سازی داده و ایندکس‌گذاری هوشمند بهره می‌برد که به بهبود عملکرد و کاهش فضای ذخیره‌سازی کمک می‌کند. با این ویژگی‌ها، StarRocks به عنوان یک راه‌حل قدرتمند برای سازمان‌هایی که به دنبال تحلیل‌های سریع و دقیق در محیط‌های داده‌ای پویا هستند، مطرح شده است.

در این بخش از دوره مهندسی داده به بررسی این امکانات و نصب و پیکربندی StarRocks و بررسی چند مثال کاربردی خواهیم پرداخت.

۵

آشنایی با مفاهیم دیتابیس‌های جریانی و کار عملی با RisingWave

دیتابیس‌های جریانی نسل جدیدی از سیستم‌های مدیریت داده هستند که برای پردازش و تحلیل داده‌های جریانی طراحی شده‌اند. این سیستم‌ها قادرند داده‌های ورودی را به صورت مداوم و در لحظه پردازش کنند، که برای کاربردهایی مانند نظارت بر شبکه، تشخیص تقلب و تحلیل رفتار کاربر بسیار مفید است.

 RisingWave به عنوان یک دیتابیس جریانی پیشرو، قابلیت‌های منحصر به فردی را ارائه می‌دهد. این سیستم با پشتیبانی از SQL استاندارد که از پروتکل ارتباطی پستگرس بهره‌می‌برد، امکان اجرای کوئری‌های پیچیده روی داده‌های جریانی را فراهم می‌کند. کار عملی با RisingWave شامل ایجاد و مدیریت جریان‌های داده، تعریف ویوهای متریالایز شده برای محاسبات تجمعی مداوم، و پیاده‌سازی الگوریتم‌های پردازش جریانی مانند پنجره‌های زمانی و عملیات‌های تجمعی پیچیده است. RisingWave همچنین قابلیت مقیاس‌پذیری افقی دارد که امکان پردازش حجم عظیمی از داده‌های جریانی را فراهم می‌کند. یکی از ویژگی‌های کلیدی RisingWave، توانایی آن در ترکیب داده‌های جریانی با داده‌های ثابت است که امکان انجام تحلیل‌های پیچیده‌تر را فراهم می‌کند. کار با RisingWave مستلزم درک مفاهیمی مانند مدیریت حالت، تضمین‌های تحویل پیام و مکانیزم‌های بازیابی خطا است.

در این بخش از دوره پیشرفته مهندسی داده، سعی‌ میکنیم با استفاده از چند مثال عملی، به مفاهیم اصلی این دیتابیس و کاربرد آنرا در دنیای معاصر پردازش داده بپردازیم.

۶

آشنایی با مفاهیم دیتابیس‌های برداری و انجام کار عملی با pgvector و lancedb

دیتابیس‌های برداری، نسل جدیدی از سیستم‌های مدیریت داده هستند که برای ذخیره‌سازی و جستجوی کارآمد داده‌های برداری طراحی شده‌اند. این نوع داده‌ها در کاربردهایی مانند پردازش زبان طبیعی، سیستم‌های توصیه‌گر و بینایی ماشین نقش حیاتی دارند. pgvector، به عنوان یک افزونه برای PostgreSQL، امکان ذخیره‌سازی و جستجوی بردارها را در یک پایگاه داده رابطه‌ای فراهم می‌کند. کار عملی با pgvector شامل ایجاد ستون‌های برداری، استفاده از ایندکس‌های مخصوص برای جستجوی سریع نزدیک‌ترین همسایه (KNN)، و اجرای عملیات‌های برداری مانند محاسبه فاصله کسینوسی است.

از سوی دیگر، LanceDB یک دیتابیس برداری مستقل و سبک است که برای کار با داده‌های برداری در مقیاس بزرگ بهینه شده است. کار با LanceDB شامل ایجاد و مدیریت جداول برداری، انجام جستجوهای معنایی سریع، و یکپارچه‌سازی با ابزارهای یادگیری ماشین است. هر دو سیستم قابلیت‌های پیشرفته‌ای برای بهینه‌سازی جستجو مانند استفاده از الگوریتم‌های تقریبی نزدیک‌ترین همسایه (ANN) را ارائه می‌دهند. کار عملی با این سیستم‌ها مستلزم درک مفاهیمی مانند ابعاد برداری، متریک‌های فاصله، و تکنیک‌های کاهش ابعاد است. همچنین، آشنایی با روش‌های مختلف نمایش داده‌های غیرعددی (مانند متن یا تصویر) به صورت بردار، برای استفاده مؤثر از این سیستم‌ها ضروری است.

در این بخش از دوره پیشرفته مهندسی داده، به بررسی این دو ابزار کاربردی به عنوان دو نماینده از دیتابیس‌های برداری خواهیم پرداخت. با pgvector به سرچ معنایی در حوزه متن خواهیم پرداخت و با استفاده از LanceDB به بررسی یافتن تصاویر مشابه با استفاده از مشابهت برداری امبدینگ‌های آنها خواهیم پرداخت.

 

این بخش مفاهیم اصلی دیتابیس‌های برداری و جنبه‌های کلیدی کار با pgvector و LanceDB را پوشش می‌دهد. آیا می‌خواهید در مورد جنبه خاصی از این موضوع اطلاعات بیشتری داشته باشید؟

۷

تکنیک‌های پیشرفته مدیریت و راهبری داده در PostgreSQL

در این بخش، به بررسی چند استراتژی پیشرفته مدیریت داده در PostgreSQL می‌پردازیم که برای بهینه‌سازی عملکرد و مقیاس‌پذیری در محیط‌های داده‌ای بزرگ ضروری هستند. ما با مفهوم پارتیشن‌بندی آغاز می‌کنیم و نحوه استفاده از آن برای مدیریت کارآمد حجم‌های بزرگ داده را بررسی می‌کنیم. در این راستا، به معرفی و کاربرد ابزار قدرتمند pg_partman می‌پردازیم که امکان مدیریت خودکار و پویای پارتیشن‌ها را فراهم می‌کند.

 

سپس، به سراغ مفهوم Foreign Data Wrappers (FDW) می‌رویم و نحوه استفاده از آن برای توزیع هوشمندانه داده‌ها بین چندین نسخه PostgreSQL را بررسی می‌کنیم. این تکنیک به ویژه برای سناریوهایی مفید است که نیاز به انتقال داده‌های قدیمی‌تر به یک پایگاه داده جداگانه وجود دارد، در حالی که همچنان امکان دسترسی یکپارچه به تمام داده‌ها حفظ می‌شود.

 

در ادامه، به موضوع حیاتی مدیریت بکاپ می‌پردازیم و دو ابزار قدرتمند Barman و pgBackRest را معرفی می‌کنیم. Barman به عنوان یک راهکار جامع برای تهیه نسخه‌های پشتیبان از پایگاه‌های داده PostgreSQL، امکانات پیشرفته‌ای را برای مدیریت و زمانبندی بکاپ‌ها ارائه می‌دهد. از سوی دیگر، pgBackRest با تمرکز بر بازیابی سریع و کارآمد داده‌ها، ابزاری ضروری برای تضمین تداوم کسب و کار در شرایط بحرانی است.

۸

طراحی و پیاده‌سازی پایپ‌لاین‌های داده با عملکرد بالا: آشنایی با Benthos

در این بخش، به بررسی و کار عملی با دو ابزار قدرتمند در حوزه مهندسی داده – Benthos و Vector.dev – می‌پردازیم. این ابزارها برای ایجاد پایپ‌لاین‌های داده با عملکرد بالا طراحی شده‌اند و قابلیت‌های منحصر به فردی را برای پردازش، انتقال و مدیریت جریان‌های داده ارائه می‌دهند.

Benthos یک پردازشگر جریان داده متن‌باز است که برای ایجاد پایپ‌لاین‌های داده پیچیده و با کارایی بالا بدون نیاز به کدنویسی طراحی شده است (که البته اخیرا و در فصل دوم ۲۰۲۴ این پروژه توسط Redpanda خریداری شده است و امروزه تحت عنوان Redpanda Connect‌ به فعالیت خود ادامه می‌دهد) در طول این دوره، شرکت‌کنندگان یاد می‌گیرند چگونه از Benthos برای:

۱. طراحی و پیاده‌سازی پایپ‌لاین‌های داده با استفاده از زبان پیکربندی قدرتمند آن

۲. اتصال به انواع مختلف منابع و مقاصد داده

۳.  اعمال تبدیلات و پردازش‌های پیچیده روی داده‌ها در حین حرکت

۴.  مدیریت خطاها و بازپخش داده‌ها

۵.  بهینه‌سازی عملکرد پایپ‌لاین‌ها برای حجم بالای داده

۹

DuckDB: راهکاری کارآمد و سبک برای تحلیل داده‌های حجیم در سطح شخصی

در این بخش، به معرفی و کار عملی با DuckDB می‌پردازیم، یک سیستم مدیریت پایگاه داده تحلیلی که به عنوان یک ابزار قدرتمند و در عین حال ساده برای ذخیره و پردازش حجم عظیم داده در سطح شخصی طراحی شده است.

DuckDB با ترکیب قابلیت‌های پایگاه‌های داده ستونی پیشرفته و سهولت استفاده از SQLite، راهکاری ایده‌آل برای تحلیلگران داده، دانشمندان داده و توسعه‌دهندگانی است که نیاز به پردازش سریع داده‌های بزرگ در محیط‌های محلی دارند.

با توجه به افزایش قدرت رایانه‌های شخصی و رواج بسیار زیاد DuckDB به عنوان یک ابزار دم‌دستی پردازش داده، نیاز است که مهندسین داده به عنوان یک راهکار اولیه برای پردازش بخشی از داده‌های حجیم اولیه، با استفاده از این دیتابیس قدرتمند و بسیار سبک، آشنا باشند. در پایان این بخش، فراخواهیم گرفت که چگونه می‌توان با استفاده از این ابزار، تحلیل‌های پیچیده روی داده‌های حجیم را بدون نیاز به زیرساخت‌های پیچیده یا منابع محاسباتی گسترده انجام دهیم.

۱۰

معرفی ابزارهای مفید و پیشرفته مدیریت خط فرمان

در این جلسه به بررسی چند ابزار مفید و بسیار کاربردی برای مدیریت خط فرمان (Command Line Interface) می پردازیم ابزار های از قبیبل  lazygit, starship, just,bat, lazydocker و btop , tldr  و tmux

 

   ۱.  ابزار lazygit: یک ابزار ساده و کارآمد برای مدیریت Git در خط فرمان است.

  ۲.  ابزار starship:  یک پوسته (shell prompt) سفارشی  است که اطلاعات مفیدی مانند نام کاربر، مسیر کنونی و … را نمایش می‌دهد.

  ۳.  ابزار bat: یک جایگزین قدرتمند برای دستور cat در خط فرمان است.

  ۴.  ابزار Lazydocker : یک رابط کاربری ترمینال برای مدیریت Docker است

  ۵ btop : مایشگر فعالیت سیستم برای خط فرمان است

  ۶  tldr: یک منبع ساده و خلاصه برای راهنمای دستورات خط فرمان است.

  ۷. tmux یک مدیر ترمینال (terminal multiplexer) است که به کاربران امکان ایجاد و مدیریت پنجره‌ها و تب‌های مختلف در یک ترمینال را فراهم می‌کند. این ابزار به کاربران امکان می‌دهد .

۸. ابزار just : ابزاری مشابه با make‌ برای سفارشی کردن و تسهیل اجرای دستورات روزمره به ازای هر پروژه

 

 استفاده از این ابزارها می‌تواند به بهبود تجربه کار با خط فرمان، افزایش بهره‌وری و سرعت در انجام وظایف مختلف کمک کند. این ابزارها به کاربران امکان می‌دهند تا بهبودی در مدیریت و استفاده از خط فرمان داشته باشند و وظایف خود را به بهترین شکل ممکن انجام دهند.

استاد این دوره

مجتبی بنائی

دانشجویان چه می‌گویند

نمونه مدرک این دوره

پس از مشاهده و گذراندن دوره آموزش مهندسی داده پیشرفته ، یک مدرک اتمام دوره به شما تعلق می‌گیرد. این مدرک، بیانگر موفقیت شما در حل تمرین‌ها و سناریوهای طراحی شده در دوره مهندسی داده پیشرفته است و می‌تواند به عنوان یک گواهی کاربردی، سطح مهارت‌های فنی و عملی شما در حوزه کلان داده و مهندسی داده  اعتبار ببخشد. در بازار کار فعلی، دارا بودن مدرک دوره، به عنوان یک فاکتور مهم در حسن تمایز شما با سایر افراد تلقی می‌شود.

پس از مشاهده و گذراندن دوره آموزش مهندسی داده پیشرفته ، یک مدرک اتمام دوره به شما تعلق می‌گیرد. این مدرک، بیانگر موفقیت شما در حل تمرین‌ها و سناریوهای طراحی شده در دوره مهندسی داده پیشرفته است و می‌تواند به عنوان یک گواهی کاربردی، سطح مهارت‌های فنی و عملی شما در حوزه کلان داده و مهندسی داده  اعتبار ببخشد. در بازار کار فعلی، دارا بودن مدرک دوره، به عنوان یک فاکتور مهم در حسن تمایز شما با سایر افراد تلقی می‌شود.

سؤالات پر تکرار

پیش نیاز این دوره آشنایی با مباحث کلان داده و دوره مهندسی داده مقدماتی می باشد. 

برای تبدیل شدن به یک مهندس داده حرفه‌ای، شما باید مهارت‌های زیادی را در حوزه‌های مختلف برنامه نویسی و کار با سیستم‌های داده کاوی کسب کنید. فهرست زیر، مهم‌ترین این مهارت‌ها را نشان می‌دهد.

•      زبان‌های برنامه نویسی مانند پایتون، جاوا و SQL

•      سیستم‌های مدیریت پایگاه داده مانند MySQL

•      سیستم‌های توزیع شده برای مدیریت داده‌های بزرگ و پیچیده 

•      مفاهیم مدل‌سازی داده‌ها و ترسیم نمودارهای ER و UML

•      Data warehouse یا انبار داده‌ها

•      پردازش داده‌ها

•      رایانش ابری

Clickhouse یک پایگاه داده OLAP با کارایی بالا است که برای مدیریت حجم بزرگی از داده‌ها مناسب است. با یادگیری Clickhouse، قادر خواهیم بود از این تکنولوژی برای ذخیره و بازیابی داده‌های حجیم با سرعت بالا بهره‌مند شویم. همچنین یادگیری راهکارهای بهینه‌سازی کوئری‌ها و مدیریت جداول در Clickhouse، باعث بهبود عملکرد دیتابیس و در نتیجه، بهبود نتایج در بازیابی اطلاعات را در پی خواهد داشت. 

بله، می‌توانید از طریق اسنپ پی، به راحتی این دوره آموزش کوئری نویسی را تهیه کنید. کافیست در اسنپ پی حساب کاربری ایجاد کرده و پس از ورود به صفحه نیک آموز، دوره مورد نظر را تهیه کنید. اگر بخواهید از خرید اقساطی به عنوان روش پرداخت هزینه استفاده کنید، تنها یک چهارم آن را در ابتدا پرداخت خواهید کرد. شما می‌توانید با مطالعه «راهنمای خرید اقساطی دوره آموزشی با اسنپ پی» با مراحل آن آشنا شوید.



این دوره به صورت آنلاین از اردیبهشت ۱۴۰۳ شروع می شود .همچینین دوره ضبط و جلسات دوره برای مشاهده در اختیار ثبت نام کنندگان آنلاین قرار می گیرد. شما می‌توانید این دوره را در پلیر اختصاصی مجموعه، با نام اسپات پلیر مشاهده کنید. توجه کنید که پس از تهیه این دوره، یک کلید لایسنس منحصر به فرد در پنل کاربری شما قرار می‌گیرد. در صورتی که به لایسنس‌های بیش‌تری نیاز داشته باشد، می‌توانید با پرداخت هزینه آن از این مزیت برخوردار شوید.  توجه کنید که تمام فایل‌های مربوط به دوره، شامل سورس کدها و جزوات، همگی در اسپات پلیر قابل دسترس شما هستند. برای اطلاعات بیشتر، به مقاله «راهنمای مشاهده محصولات آموزشی محافظت شده نیک‌آموز» مراجعه کنید.

این دوره به صورت آنلاین از مرداد ماه ۱۴۰۳ شروع می شود 

شما می‌توانید با مراجعه به فرم درخواست مشاوره تخصصی از متخصصان نیک آموز مشاوره دریافت کنید و با به کارگیری مهارت‌های تجربی تیم ما، به صورت تدریجی به سمت معماری میکروسرویس حرکت کنید.



بله این دوره به صورت آنلاین و زنده برگزار می شود و شما می توانید با مدرس این دوره به صورت آنلاین در ارتباط باشید. 



بله، شما می‌توانید از مشاوره های نیک‌آموز به عنوان راهنما در مسیر خود استفاده کنید. برای این منظور لطفا شماره خود را در فرم مشاوره دوره وارد کنید تا مشاوران نیک آموز با شما تماس بگیرند.

۳۰% تخفیف

پیش ثبت‌نام دوره

۷.۰۰۰.۰۰۰ تومان

۴.۹۰۰.۰۰۰ تومان

فیلد های "*" اجباری هستند

این قسمت برای اهداف اعتبارسنجی است و باید بدون تغییر باقی بماند.

کلیه حقوق این وب‌سایت متعلق به مجموعه نیک‌آموز می‌باشد.

close-image