Veri Mühendisi
Kartaca’da en büyük hedefimiz, müşterilerimiz için mükemmel çözümler üretmek! Bu sebeple, uluslararası kalite standartlarını ve dünyada kabul gören proje yönetimi metodolojilerini istisnasız olarak uyguluyor, özgür yazılımları tercih ediyor ve gurur duyacağımız ürünler geliştirmek için çalışıyoruz.
Bizimle aynı coşkuyu paylaşacak, öğrenmeye meraklı, değer katmak isteyen ve iş ahlakına sahip takım arkadaşları arıyoruz!
Aranan Nitelikler
- Bilgisayar Mühendisliği / Bilimi, Matematikle ilgili teknik alan veya ilgili bir alanda lisans derecesi olan
- Veri yapıları, algoritmalar ve yazılım tasarımı üzerine temel bilgisayar bilimi altyapısı olan
- Bulut sağlayıcı verilerini ve analitik hizmetlerini kullanarak, dinamik bir ortamda farklı işlevlerden ekiplerle ve üçüncü partilerle birlikte çalışma, büyük ölçekli kurumsal veri çözümleri ve uygulamaları tasarlama, inşa etme ve çalışır hale getirme alanında en az 2 yıl deneyimi olan
- Python, Java gibi nesne yönelimli betik dillerinde deneyimi olan
- Veri işleme yazılımları (Hadoop, Spark, Pig, Hive) ve algoritmalar (MapReduce, Flume) konusunda deneyimi olan
- İlişkisel SQL ve NoSQL veritabanları konusunda deneyim (Postgres ve Cassandra dahil)
- Akış işleme sistemlerinde (Storm, Spark-Streaming, vb.) deneyimi olan
- Bulut platformlarında yeni nesil veri ve analitik platformlarını tasarlama ve uygulama konusunda deneyimi olan
- Büyük ve yapılandırılmamış veri kümelerinin manipülasyonu, işlenmesi ve kullanılabilir hale getirilmesi konusunda geçmiş başarıları bulunan
- Minimum gözetim altında çalışabilen, çevik ve hedef odaklı bir takım oyuncusu olan
- Güçlü analitik düşünme, proje yönetimi ve organizasyon becerileri olan
- Mesaj kuyruklama, akış işleme ve yüksek düzeyde ölçeklenebilir “büyük veri” depolama deneyimi olan
- Büyük Veri, bilgi elde etme, veri madenciliği veya makine öğrenimi ile çalışma deneyimi ve NoSQL, MongoDB, Spark ML, TensorFlow gibi modern web teknolojileri ile çok katmanlı yüksek erişilebilirliği olan uygulamalar oluşturma konusunda deneyimi olan
Tercihen;
- Geçerli bir “Professional Google Cloud Data Engineer” sertifikası sahibi
- Tasarladığı ve uyguladığı en az 1 çözümü canlı ortamda yer alan; uygulamalı GCP deneyimi olan
- Veri platformlarının mevcut durumunu ayrıntılı değerlendirme ve Google Cloud’a geçiş yol haritası belirleme konusunda deneyimi olan
- Cloud DataProc, Cloud Dataflow, Apache Beam, BigTable, Cloud BigQuery, Cloud PubSub, Cloud Functions vb. araçlarda deneyimi olan
İş Tanımı
- Büyük veri çözümlerini kullanmak ve ölçeklenebilir, yüksek performanslı sistemler inşa etmek için ETL boru hatları oluşturmak
- Karmaşık veri analizi yapmak, sonuçları raporlamak ve algoritmalar oluşturmak
- Veri dönüşümünü, veri yapılarını, meta verileri, bağlılık ve iş yükü yönetimini destekleyen süreçler oluşturmak
- İşlevsel / işlevsel olmayan iş gereksinimlerini karşılayan büyük, karmaşık veri kümelerini bir araya getirmek
- Dahili süreç iyileştirmelerini tanımlamak, tasarlamak ve uygulamak için; manuel süreçleri otomatikleştirmek, veri dağıtımını optimize etmek, daha fazla ölçeklenebilirlik için altyapıyı yeniden tasarlamak
- SQL ve Google Cloud “büyük veri” teknolojilerini kullanarak çok çeşitli veri kaynaklarından en uygun seviyede veri özütleme, dönüştürme ve yükleme için gerekli altyapıyı oluşturmak
- Yöneticiler, ürün ve veri ekipleri dahil olmak üzere paydaşlarla çalışmak; verilerle ilgili teknik konularda yardımcı olmak ve veri altyapısı ihtiyaçlarını desteklemek
- Birden çok veri merkezi ve Google Cloud bölgesinde bulunan müşteri verilerini ayrık ve güvende tutmak, veri güvenilirliği ve kalitesini iyileştirmek
- Veri sistemlerimizi daha işlevsel hale getirmek için veri ve analitik uzmanlarıyla çalışmak