فناوری اطلاعات و ارتباطات مُهَیمن
فناوری اطلاعات و ارتباطات مُهَیمن

Data Engineer

تهران، نیلوفر - شهید قندی
تمام وقت
شنبه تا چهارشنبه
-
وام -پاداش -امریه‌ی سربازی -بیمه درمان تکمیلی -پارکینگ -ساعت کاری منعطف -کمک هزینه دوره آموزشی -میان وعده -صبحانه -کتابخانه -بسته ها و هدایای مناسبتی
501 تا 1000 نفر
فناوری اطلاعات / نرم افزار و سخت افزار
شرکت ایرانی دارای مشتریان داخلی
1388
مهیمن
خصوصی
توضیحات بیشتر

شاخص های کلیدی از نظر کارفرما

2 سال سابقه کار در گروه شغلی مشابه
Sql Server - متوسط
Python - متوسط
GIT - مقدماتی
Knime - مقدماتی
Kafka - مقدماتی
Spark - مقدماتی
Prometheus - مقدماتی

شرح شغل و وظایف

ما در شرکت مهیمن برای بهره‌مندسازی کشور از کاربردهای نوین فناوری اطلاعات و ارتباطات تلاش می‌کنیم تا بتوانیم با توسعه‌ی دانش بومی این حوزه، پاسخگوی نیازهای استراتژیک داخلی باشیم. برای حرکت بهتر در این مسیر، تصمیم داریم همکار جدیدی در نقش «Data Engineer» داشته باشیم که؛ بتواند زیرساخت‌های داده‌ای پایدار، مقیاس‌پذیر و قابل اتکا ایجاد کند و نقش موثری در ارتقای کیفیت داده و تصمیم‌گیری‌های مبتنی بر داده ایفا نماید. در این جایگاه، شما با تیم‌های دیتابیس، محصول، تحلیل و توسعه همکاری نزدیک خواهید داشت تا جریان داده‌ها به شکلی کارآمد، استاندارد و قابل بهره‌برداری طراحی و نگهداری شود.

شرح وظایف:

  • طراحی، توسعه و نگهداری Pipelineهای داده (ETL/ELT)
  • تجربه کار با SQL، بررسی عملکرد کوئری‌ها، عیب‌یابی و انجام بهینه‌سازی‌های لازم برای افزایش کارایی پردازش داده
  • توسعه معماری‌های داده‌ای استاندارد و مقیاس‌پذیر
  • همکاری با تیم‌های مختلف برای تامین داده‌های موردنیاز و افزایش کیفیت آن‌ها
  • پایش، تحلیل و بهبود مداوم کیفیت داده‌ها و ایجاد ساختارهای Data Governance
  • رفع مشکلات داده‌ای و ارائه راهکارهای فنی جهت بهبود عملکرد

مهارت‌ها و شایستگی‌های موردنیاز:

  • تسلط بر SQL و یک زبان برنامه‌نویسی مرتبط (ترجیحاً Python)
  • آشنایی با ابزارهای ETL مانند Knime و ابزارهای Orchestration مانند Airflow و توانایی طراحی Workflowهای استخراج، تبدیل و بارگذاری داده در محیط‌های گرافیکی و مبتنی بر فرآیندهای خودکار
  • آشنایی با ابزارهای مانیتورینگ مانند Grafana و Prometheus برای پایش عملکرد سرویس‌ها، زیرساخت و کیفیت جریان داده‌ها
  • آشنایی با ابزارها و تکنولوژی‌های داده مانند: Spark، Kafka، DBT، BigQuery یا Redshift
  • آشنایی با ELK Stack (Elasticsearch، Logstash، Kibana) برای جستجو، پایش و تحلیل لاگ‌ها و بهبود مشاهده‌پذیری داده
  • آشنایی با طراحی و پیاده‌سازی Pipelineهای داده‌ای
  • شناخت مناسب از پایگاه‌های داده رابطه‌ای و تحلیلی
  • توانایی تحلیل مسائل پیچیده و ارائه راه‌حل‌های عملیاتی
  • دقت بالا، ذهن تحلیلی و مهارت در مستندسازی

شرایط احراز شغل

سن
25 - 35 سال
جنسیت
تفاوتی ندارد
نرم افزارها
Sql Server| متوسط Python| متوسط Knime| مقدماتی Kafka| مقدماتی Prometheus| مقدماتی GIT| مقدماتی Spark| مقدماتی

ثبت مشکل و تخلف آگهی

ارسال رزومه برای فناوری اطلاعات و ارتباطات مُهَیمن

insight applicant

مقایسه من با 392 متقاضی دیگر