درحال ثبت‌نام

نحوه برگزاری دوره: آنلاین

مهندسی داده مقدماتی

دوره مهندسی داده مقدماتی به شما کمک می‌کند درک کنید مهندس داده دقیقاً چه‌کار می‌کند، در دنیای بیگ‌ دیتا چه نقشی دارد و چطور با ابزارهایی مثل لینوکس، پایگاه‌های داده NoSQL ،Kafka ،Elasticsearch و پلتفرم‌های تحلیلی مدرن کار کنید. در پایان دوره می‌توانید داده‌ها را جمع‌آوری، پاکسازی و آماده‌سازی کرده و اولین سناریوهای واقعی مهندسی داده را در عمل پیاده‌سازی کنید.

اطلاعات دوره

معرفی دوره

مهندسی داده به عنوان یک جایگاه شغلی نوظهور در حوزه پردازش داده، نقش مهمی را در سامانه‌ های اطلاعاتی مقیاس‌ پذیر روز دنیا ایفا می‌ کند. این جایگاه که در حال حاضر در ایران بیشتر مورد نیاز شرکت‌ های بزرگ است، در چند سال آینده، به یک بازیگر اصلی تمامی سامانه‌ های اطلاعاتی بومی تبدیل خواهد شد. دوره مهندسی داده برای ورود عملی به دنیای بیگ‌ دیتا و زیرساخت‌های داده طراحی شده است؛ از نقش مهندس داده، کار با لینوکس، پایتون و جاوا، تا پایگاه‌های NoSQL مثل MongoDB، داده‌های جریانی با Kafka، تحلیل روی ClickHouse و Doris و پیاده‌سازی ETL/ELT و پردازش توزیع‌شده با Spark ،NiFi و Airflow همگی در قالب سناریوهای واقعی آموزش داده می‌شوند. این دوره به‌صورت حرفه‌ای و پروژه‌محور در نیک‌ آموز ارائه می‌شود .

دسترسی همیشگی به محتوا دوره

همه کلاس‌ها ضبط می‌شوند و در هر زمان برای تمامی دانشجویان، چه آنلاین و چه حضوری، در دسترس خواهند بود!

پشتیبانی مستمر

در گروه اختصاصی دوره، پاسخ سؤالاتتان را بگیرید، پیشتیبانی دریافت کنید و با دیگر شرکت‌کنندگان در ارتباط باشید!

مدرک معتبر پایان دوره

با تکمیل دوره، مدرک پایان دوره دریافت کنید و مهارت‌های خود را رسمی کنید!

گروه پرسش و پاسخ

سوال بپرسید، تجربه به اشتراک بگذارید و از دیگران یاد بگیرید، همه در یک فضای آموزشی فعال!

محتوای کاربردی، یادگیری موثر

هر آنچه می‌آموزید، مستقیماً در پروژه‌ها و کار واقعی قابل استفاده است!

جلسه اول رایگان

اولین جلسه را به‌صورت آنلاین و رایگان تجربه کنید، سپس با خیال راحت برای ادامه مسیر تصمیم بگیرید!

این دوره برای چه افرادی مناسب است؟

این دوره مخصوص افرادی است که با داده کار می‌کنند یا قصد ورود به این حوزه را دارند و می‌خواهند نقش مهندس داده و کار با زیرساخت‌های مدرن و آماده‌سازی داده برای تحلیل در پروژه‌های بیگ‌ دیتا را یاد بگیرند.

مناسب برای:

  • مهندسان داده
  • توسعه‌دهندگان و برنامه‌نویسان (Developers)
  • تحلیلگران داده (Data Analysts) و دانشمندان داده (Data Scientists)
  • مدیران پایگاه داده (DBAs)
  • مهندسان نرم‌افزار یا DevOps
  • فارغ‌التحصیلان رشته‌های مرتبط
  • افراد علاقه مند به یادگیری مباحث پیشرفته و کاربردی کلان داده (Big Data)

مفاهیمی که یاد خواهید گرفت

در این دوره با مفاهیم کلیدی مهندسی داده آشنا می‌شوید؛ از نقش مهندس داده در اکوسیستم بیگ‌ دیتا، تا اصول کار با لینوکس و آشنایی اولیه با زبان‌های مورد استفاده در پردازش داده. سپس با پایگاه‌های داده NoSQL، داده‌های جریانی و پلتفرم‌هایی مانند Apache Kafka و Elasticsearch آشنا می‌شود و در ادامه، مفاهیمی مانند ETL و ELT، جمع‌آوری، پاکسازی و آماده‌سازی داده‌ها و کار با ابزارهایی نظیر Apache NiFi ،Apache Spark و Airflow را در قالب سناریوهای کاربردی تمرین می‌کنید.

سطح دوره مقدماتی تا متوسط
پیش نیازهای دوره دانش SQL و تجربه کار با یک پایگاه داده RDBMS
چالش ورودی دوره ندارد
حسن احمدخانی

مدرس دوره

حسن احمدخانی
  • معمار کلان داده در ایرانسل از ۱۴۰۰ تا کنون.
  • مشاور مهندسی داده در تکنولایف از 1403.
  • مشاور مهندسی داده در زپ از 1402.
  • مدرس کلان داده و NoSQLها از سال ۱۳۹۷ تاکنون.
  • معمار کلان داده در داتین از ۱۳۹۹ تا ۱۴۰۰.
  • مهندس ارشد داده و Oracle DBA در شرکت پژواک از ۱۳۹۴ تا ۱۳۹۸.
  • مشاور اوراکل در بیمه ایران از ۱۳۹۵ تا ۱۳۹۶.
  • برنامه نویس جاوا و مهندس داده در ایزایران از 1393 تا 1394
  • برنامه نویس جاوا در شرکت پژواک از 1389 تا 1393

سرفصل‌های دوره

این سرفصل‌ها چهارچوب اصلی دوره «مهندسی داده» را مشخص می‌کنند و بر اساس نیازهای شغلی واقعی و فناوری‌های روز در حوزه بیگ‌ دیتا و پردازش توزیع‌شده طراحی شده‌اند.
در طول دوره، علاوه بر مباحث اصلی، ده‌ها نکته کلیدی و سناریوی عملی مبتنی بر ابزارهایی مانند Linux ,Python/Java ,NoSQL ,Kafka ,Spark ,NiFi و Airflow به‌صورت کاملاً کاربردی آموزش داده خواهد شد.

1– ورود به دنیای مهندسی داده

این فصل به عنوان دروازه ورود به دنیای مهندسی داده، اهمیت فزاینده داده‌های حجیم و متنوع (بیگ دیتا) و چالش‌های ناشی از ذخیره‌سازی و پردازش آن‌ها را بررسی می‌کند. در این بخش، شما با مسیر شغلی مهندس داده، تفاوت‌های آن با نقش‌هایی مانند DBA و DevOps، و نقش حیاتی این تخصص در عصر هوش مصنوعی آشنا خواهید شد. همچنین، مفاهیم کلیدی مانند ذخیره‌سازی و پردازش توزیع‌شده و مقایسه مدل‌های ذخیره‌سازی سطری و ستونی و مدل‌های پردازشی Batch و Streaming به منظور ایجاد یک دیدگاه جامع از اکوسیستم داده‌های مدرن، معرفی می‌شوند.

  • مروری بر اهمیت داده، پایگاه داده و سیستم های ذخیره سازی
  • مهمترین نیازمندی های لازم برای متخصصان مهندسی داده: مسیر حرفه ای شدن
  • یک روز کاری مهندس داده چگونه است
  • تفاوت ها و شباهت های نقش های مهندسی داده و DBA و DevOps
  • عصر AI و اهمیت مهندسی داده
  • بیگ دیتا چیست و چه کسانی بیگ دیتا دارند؟
  • چالش های داده های حجیم و متنوع و بیگ دیتا
  • ذخیره سازی توزیع شده، اهمیت و چالش های آن
  • پردازش توزیع شده، اهمیت و چالش های آن
  • مدل های ذخیره سازی سطری و ستونی و مثال هایی از آن
  • مدل پردازشی Batch و Streaming

ورود به دنیای مهندسی داده

 

از آنجایی که اغلب پلتفرم‌ها و ابزارهای بیگ دیتا و پردازش توزیع‌شده بر روی سیستم‌عامل لینوکس اجرا می‌شوند، تسلط بر آن برای مهندسان داده ضروری است. این فصل اهمیت لینوکس را در زیرساخت‌های داده‌ای توضیح می‌دهد و بر روی مهم‌ترین توزیع‌ها (مانند اوبونتو) متمرکز می‌شود. شما مهارت‌های عملی مورد نیاز برای کار با لینوکس، از جمله نصب، مدیریت اولیه توزیع‌های مختلف، تنظیمات شبکه و درک مفاهیم پارتیشن‌بندی و مدیریت دیسک را برای آماده‌سازی محیط‌های کاری داده‌محور، فرا خواهید گرفت.

  • اهمیت لینوکس
  • توزیع های مهم لینوکس
  • نصب و کار با Ubuntu
  • مروری بر تنظیمات شبکه، پارتیشن بندی و دیسک

 لینوکس برای مهندسان داده

این سرفصل به معرفی و بررسی دو زبان برنامه‌نویسی پایتون و جاوا به عنوان ستون‌های اصلی ابزارهای مهندسی داده می‌پردازد. این بخش بر تفاوت مهارت‌های برنامه‌نویسی مورد نیاز مهندس داده در مقایسه با مهندس نرم‌افزار تأکید دارد، در حالی که نکات و اصطلاحات مهم طراحی نرم‌افزار را جهت توسعه کدهای پایدار و بهینه، آموزش می‌دهد. بخش عملی شامل کدنویسی و اجرای سناریوهای رایج پردازش داده با هر دو زبان و همچنین استفاده از گیت برای کنترل نسخه کدها و مدیریت پروژه‌ها خواهد بود تا شرکت‌کنندگان آمادگی لازم برای کار با فریم‌ورک‌های مختلف داده‌ای را کسب کنند.

  • زبان های برنامه نویسی مهم برای مهندسان داده
  • آیا مهندس داده باید به خوبی یک مهندس نرم افزار در طراحی و برنامه نویسی باشد؟
  • نکات و اصطلاحات مهم طراحی و توسعه نرم افزار برای مهندسان داده
  • کار با گیت
  • کد نویسی و انجام سناریوهای مختلف پردازش داده با پایتون
  • کد نویسی و انجام سناریوهای مختلف پردازش داده با جاوا

مقدمه ای بر جاوا و پایتون برای مهندسان داده

این فصل بر تنوع و اهمیت پایگاه‌های داده NoSQL تمرکز دارد، ویژگی‌های آن‌ها را در مقابل مدل‌های سنتی ACID بررسی کرده و مفاهیمی مانند BASE را توضیح می‌دهد. بخش عملی شامل کار با پایگاه داده MongoDB و اصول مدل‌سازی داده در آن است. در ادامه، مبحث داده‌های جریانی (Stream Data) و چالش‌های آن معرفی می‌شود و پلتفرم Apache Kafka به عنوان ابزار اصلی ذخیره‌سازی جریانی، ساختار، کاربردها و مؤلفه‌های آن (مانند Kafka Connect) مورد بررسی قرار می‌گیرد. در نهایت، معماری و نحوه کار با Elasticsearch برای مدیریت و جستجوی داده‌های حجیم به عنوان یک ابزار قدرتمند تحلیلی، آموزش داده می‌شود.

  • اهمیت، ویژگی ها و علت تنوع پایگاه داده های NoSQL
  • ویژگی های ACID و BASE در پایگاه داده های NoSQL
  • کار با MongoDB
  • مدل سازی داده در مانگو دی بی و نکات مدل سازی
  • داده های جریانی، ویژگی ها و چالش های آن
  • معرفی Apache Kafka و کاربرد و ویژگی های آن
  • توزیع های مختلف کافکا و پلتفرم های سازگار با Protocol کافکا
  • کار با کافکا و کامپوننت های کافکا مانند Kafka Connect
  • اکوسیستم کافکا و انجام سناریو های مختلف ذخیره و بازیابی داده در کافکا
  • فرمت های مختلف فایل برای کافکا
  • Queue در کافکا
  • کاربرد Elasticsearch و معماری آن
  • کار با Elasticsearch
  • کلاستر Elasticsearch و ساختار آن

مفاهیم پایگاه داده

این بخش به معرفی و کاربرد پلتفرم‌های تحلیلی و انبارهای داده مدرن که برای پردازش و تحلیل کارآمد داده‌های حجیم طراحی شده‌اند، می‌پردازد. ابتدا مفاهیم مدل‌سازی داده در انبار داده و تفاوت‌های کلیدی بین ذخیره‌سازی Row-base و Column-base که سرعت کوئری‌ها را تحت تأثیر قرار می‌دهند، مرور می‌شوند. سپس، شرکت‌کنندگان با پلتفرم‌های ستونی با کارایی بالا مانند ClickHouse و Apache Doris آشنا می‌شوند و نحوه کار، ویژگی‌ها و مزایای استفاده از آن‌ها در محیط‌های تحلیلی پیچیده برای ارائه گزارش‌گیری‌های سریع و پاسخ‌گویی به کوئری‌های تحلیلی را فرا می‌گیرند.

  • مدل سازی داده در دیتابیس، انبار داده و بیگ دیتا
  • تفاوت ذخیره سازی Row-base و Column-base
  • کار با ClickHouse و ویژگی های کلیک هاس
  • کار با Doris Apache و ویژگی های دوریس

 

پلتفرم های داده ای و تحلیلی مدرن

این فصل هسته اصلی کار یک مهندس داده را تشکیل می‌دهد و فرآیندهای حیاتی ETL و ELT و اهمیت کیفیت داده را پوشش می‌دهد. این بخش بر روی پیاده‌سازی عملی سناریوهای آماده‌سازی داده‌ها با استفاده از دستورات SQL و یک زبان برنامه‌نویسی تمرکز می‌کند. همچنین، استفاده از ابزارهای خاصی مانند Apache NiFi برای طراحی Data Flow‌های جمع‌آوری داده و Apache Spark به عنوان یک فریم‌ورک پردازش توزیع‌شده مقیاس‌پذیر برای اجرای سناریوهای مختلف Spark SQL و خواندن/نوشتن در منابع داده‌ای NoSQL و تحلیلی آموزش داده می‌شود. در پایان، مفاهیم مربوط به فرمت‌های بهینه ذخیره‌سازی مانند ORC و Parquet و روش‌های Scheduling تسک‌های داده‌ای با استفاده از ابزارهایی مانند Airflow بررسی خواهند شد.

  • ETL و ELT
  • کیفیت داده و معیار های آن
  • پیاده سازی سناریو های مختلف آماده سازی داده به کمک یک زبان برنامه نویسی و دستورات SQL
  • مقیاس پذیری درلایه پردازش و استفاده از روش های پردازش توزیع شده
  • استفاده از Apache NiFi برای طراحی Data Flow های جمع آوری داده
  • انجام سناریو های متنوع Ingestion در NiFi به پایگاه داده های NOSQL و تحلیلی
  • مروری بر Apache Spark و قابلیت های آن
  • انجام سناریو های مختلف پردازش داده در Spark SQL
  • بررسی فرمت فایل های ORC و Parquet و مزایا و معایب آنها
  • خواندن و نوشتن در منابع داده ای NoSQL و تحلیلی با آپاچی اسپارک
  • روش های Scheduling تسک ها
  • استفاده از Airflow برای Scheduling

جمع آوری، پاکسازی و آماده سازی داده ها

چارچوب برگزاری دوره

فرایند برگزاری و زمانبندی

ارزیابی و ثبت نام دوره ثبت نام
تاریخ برگزاری (شروع )  11بهمن  – شنبه ها ساعت: ۱۷:۳۰ – ۲۰:۳۰
 طول دوره 40 ساعت
روز
ساعت
دقیقه
ثانیه
تا پایان ثبت نام

نوع ارائه و هزینه دوره آنلاین

پکیج نقره‌ای (معمولی)

ظرفیت باقی‌مانده: 30 نفر

امکان پرداخت 4 قسطه با

پلتفرم برگزاری: لحظه‌نگار

مشاهده دوره و پرسش و پاسخ آنلاین در بستر لحظه‌نگار

دسترسی آفلاین به ویدیوها در اسپات‌پلیر

دانلود PDF پاورپوینت جلسات

دارای گروه پرسش و پاسخ تلگرامی

امکان معرفی برترین‌ها به بازار کار
15,750,000
11,025,000 تومان
پکیج طلایی (VIP)

ظرفیت باقی‌مانده: 30 نفر

مشاوره اختصاصی با استاد احمدخانی:
  • بصورت آنلاین یا حضوری به مدت ٨ ساعت
  • بررسی اختصاصی معماری مهندسی داده شما
  • امکان رکورد جلسات توسط شما

پلتفرم برگزاری: لحظه‌نگار

مشاهده دوره و پرسش و پاسخ آنلاین در بستر لحظه‌نگار

دسترسی آفلاین به ویدیوها در اسپات‌پلیر

دانلود PDF پاورپوینت‌ جلسات
دارای گروه پرسش و پاسخ تلگرامی
امکان معرفی برترین‌ها به بازار کار

امکان پرداخت 4 قسطه با

55,750,000
39,025,000 تومان

ثبت نام دوره آنلاین مهندسی داده مقدماتی

اگر هنوز برای ثبت‌نام قطعی تصمیم نگرفته‌اید اما می‌خواهید ظرفیت خود را حفظ کنید، فرم زیر را تکمیل کنید. با توجه به محدودیت ظرفیت، اولویت با افرادی است که زودتر رزرو خود را انجام دهند.

"*" فیلدهای الزامی را نشان می دهد

از تجربه تا نتیجه!

شرکت‌کنندگان این دوره از دانشجویان کلاس‌های استاد ارومند هستند و نظرات واقعی‌شان را درباره سبک تدریس و کلاس‌ها می‌گویند. تجربه‌هایشان را بشنوید و با اطمینان تصمیم بگیرید!

نمونه مدرک نیک آموز

مدرک نیک آموز نشان‌دهنده تخصص و مهارتی است که شما را برای موفقیت در آزمون‌های استخدامی و پروژه‌های حرفه‌ای آماده می‌کند. همچنین، شما می‌توانید پس از دریافت مدرک، آن را مستقیماً به بخش Education پروفایل لینکدین خود اضافه کرده و رزومه خود را معتبرتر کنید

نمونه آموزش‌ها

ویدیوهای زیر، نمونه‌هایی از سبک تدریس و کلاس‌های استاد ارومند هستند. با مشاهده آن‌ها می‌توانید با نحوه آموزش ایشان آشنا شوید و با اطمینان بیشتری برای شرکت در دوره تصمیم بگیرید.

شرکت در جلسه اول آنلاین این دوره رایگان می‌باشد، جهت ثبت‌نام کلیک کنید.

سوالات تخصصی دوره مهندسی داده مقدماتی

1. چه پیش‌نیازهایی برای شرکت در این دوره نیاز است؟

برای ورود به این دوره، داشتن دانش کافی در زمینه SQL و تجربه کار با حداقل یکی از پایگاه‌ داده‌های رابطه‌ای (RDBMS) ضروری است. از آنجایی که در طول دوره به مباحث برنامه‌نویسی و محیط‌های عملیاتی پرداخته می‌شود. آشنایی اولیه با منطق برنامه‌نویسی به شما کمک می‌کند تا از فصل‌های مربوط به پایتون، جاوا و لینوکس بیشترین بهره را ببرید.

 منابع موجود به طور مستقیم تعریف جامعی از اینکه مهندسی داده چیست یا دقیقاً چه کسی مهندس داده است، ارائه نمی‌دهند. با این حال، این حوزه شامل بررسی اهمیت فزاینده داده‌های حجیم و متنوع (بیگ دیتا)، چالش‌های ذخیره‌سازی و پردازش آن‌ها و نقش حیاتی این تخصص در عصر هوش مصنوعی است.

با انفجار حجم داده‌ها و ظهور عصر هوش مصنوعی نیاز به مهندسان داده بیش از هر زمان دیگری احساس می‌شود. آینده این شغل به سمت اتوماسیون فرآیندهای داده، استفاده از پلتفرم‌های ابری و پردازش‌های آنی (Real-time) در حرکت است. شرکت‌های بزرگ جهان و ایران به شدت به دنبال متخصصانی هستند که بتوانند چالش‌های بیگ‌دیتا (Big Data) و پردازش‌های توزیع‌شده را مدیریت کنند.

در حالی که مهندس نرم‌افزار بر روی ساخت اپلیکیشن و تعامل با کاربر تمرکز دارد، مهندس‌ داده بر روی جریان داده و کارایی سیستم‌های ذخیره‌سازی تمرکز می‌کند.

  • مهندس نرم‌افزار: پروژه‌هایی مثل طراحی وب‌سایت، اپلیکیشن موبایل یا سیستم‌های فروش را پیش می‌برد.
  • مهندس داده: پروژه‌هایی مثل طراحی انبار داده، ساخت پایپ‌لاین‌های ETL، مدیریت کلاسترهای بیگ‌دیتا و بهینه‌سازی کوئری‌های تحلیلی سنگین را اجرا می‌کند.

Apache Spark قدرتمندترین فریم‌ورک پردازش توزیع‌شده است. در این دوره، اسپارک به عنوان هسته اصلی پردازش معرفی می‌شود. کاربرد اصلی آن سرعت بخشیدن به تحلیل داده‌های حجیم است (تا ۱۰۰ برابر سریع‌تر از روش‌های سنتی). شما در این دوره نحوه استفاده از Spark SQL  و خواندن و نوشتن داده‌ها در منابع مختلف NoSQL را به صورت عملی فرا می‌گیرید.

در این دوره، به صورت تخصصی بر روی دو مورد از محبوب‌ترین و پرکاربردترین پایگاه‌های داده غیررابطه‌ای تمرکز می‌کنیم:

  • MongoDB: برای مدیریت داده‌های سندمحور (Document-based).
  • Elasticsearch: به عنوان یک موتور جستجو و تحلیل قدرتمند برای داده‌های حجیم. همچنین تفاوت‌های ساختاری ACID  و BASE در این سیستم‌ها به طور کامل بررسی می‌شود.

بله، کافکا پلتفرمی برای مدیریت جریان داده‌ها به صورت توزیع‌شده است. در این دوره، شما با معماری کافکا، کامپوننت‌های آن مثل Kafka Connect  و سناریوهای واقعی ذخیره و بازیابی داده در محیط کافکا آشنا خواهید شد.

ClickHouse یک پایگاه داده ستونی (Column-oriented) بسیار سریع برای پردازش‌های تحلیلی (OLAP) است. برخلاف دیتابیس‌های سنتی که داده را سطری ذخیره می‌کنند، ClickHouse با ذخیره‌سازی ستونی اجازه می‌دهد گزارش‌های تحلیلی روی میلیاردها رکورد در کسری از ثانیه اجرا شوند. در این دوره، کار با این ابزار و رقیب آن یعنی Apache Doris را یاد خواهید گرفت.

در مدل ذخیره‌سازی سطری، داده‌ها به‌صورت رکوردهای کامل و پیوسته ذخیره می‌شوند که برای تراکنش‌های عملیاتی (OLTP) مناسب است، زیرا بازیابی یا به‌روزرسانی یک رکورد کامل سریع انجام می‌شود. در مقابل، در مدل ستونی، مقادیر هر ستون جداگانه ذخیره می‌شوند که امکان فشرده‌سازی بهینه و بازیابی سریع ستون‌های خاص را فراهم می‌کند. این ویژگی باعث می‌شود دیتابیس‌های ستونی برای پردازش تحلیلی (OLAP) و کوئری‌های تجمیعی ایده‌آل باشند، چرا که تنها داده‌های مرتبط بارگذاری شده و حجم I/O کاهش می‌یابد. در دوره‌های مدرن، با رشد نیاز به تحلیل داده‌های حجیم، دیتابیس‌های ستونی مانند ClickHouse و Apache Doris به‌دلیل کارایی بالا در پردازش کوئری‌های پیچیده و گزارش‌گیری، مورد تأکید قرار گرفته‌اند.

پردازش توزیع‌شده به تقسیم وظایف پردازشی بین چندین گره (Node) در یک شبکه اشاره دارد که امکان مقیاس‌پذیری، تحمل خطا و کارایی بالا را فراهم می‌کند. در لایه Ingestion، این مفهوم با ابزارهایی مانند Apache Kafka پیاده‌سازی می‌شود که داده‌ها را به‌صورت جریانی و موازی بین چندین پارتیشن توزیع می‌کند. در لایه Processing، فریم‌ورک‌هایی مانند Apache Spark از پردازش توزیع‌شده برای اجرای عملیات ETL/ELT استفاده می‌کنند و با تقسیم داده‌ها به بلوک‌های کوچک، پردازش موازی روی کلاسترها را ممکن می‌سازند. این معماری چالش‌های حجم بالای داده را با توزیع بار پردازشی حل می‌کند.

سوالات متداول دوره

1. پخش لایو (زنده) دوره به چه صورت است؟

ما با استفاده پلتفرم لحظه نگار پخش زنده را خواهیم داشت. شما در این پلتفرم محیط کلاس، صدا و دسکتاپ مدرس را بصورت زنده تماشا خواهید کرد.

لحظه‌نگار یک پلتفرم پخش وبینار و کلاس های آنلاین است؛ لحظه‌نگار ابزاری جامع برای مدیریت و اجرای رویدادهای آنلاین با تمرکز بر سرعت و کیفیت بالا است. تمرکز اصلی‌اش ثبت رویدادها، تحلیل‌ها یا روایت‌ها به شکل زنده یا مرحله‌به‌مرحله است.

شما بصورت چت آنلاین می توانید سوالات خود را بپرسید و مدرس هم سوالات شما را پاسخ خواهد داد. البته توجه داشته باشید که این پروسه پاسخگویی هر ۴۰ دقیقه یکبار خواهد بود تا مدرس رشته کلام از دستش خارج نشود. البته که گروه تلگرامی دوره در اختیار شما است و می توانید سوالات خود را آنجا هم مطرح کنید.

بله. شما برای شرکت در کلاس و نصب نرم افزارهای مورد نیاز (اعلان خواهد شد) باید با خود لپ تاپ همراه داشته باشید.

بله، دسکتاپ و صدای مدرس رکورد خواهد شد و در پلیر اختصاصی اسپات پلیر به همراه کلید لایسنس ارائه خواهد شد. شما در سیستم عامل‌های ویندوز، اندروید، آیفون (سیب، اناردون)، مک بوک می‌توانید فیلم را مشاهده کنید.

بله، پس از اتمام دوره و گذراندن آزمون پایانی، گواهی معتبری به شما ارائه می‌شود که می‌توانید آن را در رزومه خود ثبت کنید.

بله، امکان خرید اقساطی با اسنپ پی فراهم شده است. برای اطلاعات بیشتر می‌توانید با مشاورین مجموعه در تماس باشید یا راهنمای خرید اقساطی دوره آموزشی با اسنپ پی را مطالعه بفرمایید.

درخواست مشاوره

"*" فیلدهای الزامی را نشان می دهد

ثبت‌نام جلسه اول رایگان

"*" فیلدهای الزامی را نشان می دهد