LabBase転職はプライド月間をお祝いする
閲覧可能な求人数: 残り⁨3⁩求人 無料登録で無制限に求人を閲覧できます。

バックエンドデータエンジニア

Appier Japan株式会社

この会社の⁨事業概要⁩

AIと大規模言語モデルを駆使した革新的マーケティングソリューションの展開

⁨AIと大規模言語モデルを駆使した革新的マーケティングソリューションの展開⁩のプレビュー画像

この会社の⁨魅力ポイント⁩

最先端AI技術とグローバル展開で成長を続けるテクノロジーカンパニー

⁨最先端AI技術とグローバル展開で成長を続けるテクノロジーカンパニー⁩のプレビュー画像

■募集概要

大規模分散システムにおいて、PythonベースのRESTful APIの設計、開発、メンテナンスを行います。Trino/Presto、Pinotを活用した堅牢なデータウェアハウスの構築と管理、Apache AirflowとApache Sparkを用いたデータパイプラインの設計と開発を主な業務とします。クロスファンクショナルなチームと連携し、日々の運用を効率化する自動化ツールの開発や、AWS、GCPなどのクラウドプラットフォーム上で最適なデータ運用を実現します。また、Kubernetes(k8s)を利用したコンテナオーケストレーションにより、アプリケーションの効率的なデプロイメントとスケーリングを支援し、最新のモニタリングおよびアラートシステムの実装を通じて、システムの安定性と性能を確保する重要な役割を担います。

■必須スキル

・BS/MS degree in Computer Science ・3+ years of experience in building and operating large-scale distributed systems or applications ・Experience in Kubernetes development, Linux/Unix ・Experience in managing data lake or data warehouse ・Expertise in developing data structures, algorithms on top of Big Data platforms ・Ability to operate effectively and independently in a dynamic, fluid environment ・Ability to work in a fast-moving team environment and juggle many tasks and projects ・Eagerness to change the world in a huge way by being a self-motivated learner and builder

■歓迎スキル

・Contributing to open source projects is a huge plus (please include your github link) ・Experience working with Python, Scala/Java is a plus ・Experience with Hadoop, Hive, Flink, Presto/Trino and related big data systems is a plus ・Experience with Public Cloud like AWS or GCP is a plus

※本募集内容に誤りがある場合、または掲載自体に関してお問い合わせをされたい場合は、こちらよりお問い合わせください。