エンジニア

Apache Kafkaを用いたデータパイプラインをスケールさせるための調査と導入

募集は終了しました

プログラム概要

日程

10月11日(火)~12月2日(金)の間
※稼働日は週2日以上(月曜日か金曜日のどちらかは就業日とする)
※ただし、実際の稼働日は参加決定後にシフトを調整します

開催場所

ご自宅等からリモートにてご参加いただきます(リモート就業のためのネットワーク環境はご自身でご準備いただきます)。

プログラム内容

【概要】
ヤフーでは、OSSの分散ストリーム処理基盤であるApache Kafkaを用いた、全社のデータを集めるためのデータパイプラインの開発、運用を行っています。
本コースでは、このデータパイプラインをさらにスケールさせるための課題の解決に貢献していただきます。

【内容(例)】
データパイプラインを構成するKafkaやその周辺コンポーネントのKubernetes化検証を行います。

現在実サーバーまたはIaaS上で稼働しているデータパイプラインの各コンポーネントをより容易にスケールさせるためにKubernetes上にコンポーネントを移行する検討を行っています。
この技術調査に実際にメンバーとして参画し、社内のエンジニアとともに実際にKubernetesに移行する際の課題の洗い出しと、課題解決に貢献していただきます。

プレエントリー締め切り

2022年6月6日(月)23:59

エントリーシート締め切り

2022年6月8日(水)15:00

必要な経験/スキル

・Linuxの基礎的な知識と経験
・Git/GitHubの基礎的な利用経験
・コンテナ技術の基礎知識(Dockerを触ったことがある)
・基礎的なプログラミング経験(言語は不問)
・分散処理OSSへの興味

あると望ましい経験/スキル

・Kubernetesに関する知識や経験
・Python/Java/Goを用いた開発経験
・Fabric/Ansibleを利用した開発経験
・技術ドキュメントを読んだ経験
・ビジネスレベルの英語力(英語のドキュメントを理解できる程度)

報酬等

・給与:時給1,500円
・就業時間:原則10:00~18:45(休憩1時間を含む)
 ※ただし、実際の就業時間は参加決定後シフトを調整します
・PC貸与(就業開始時に各種設定後発送いたします)

選考

ステップ1

プレエントリー

エントリー期限:
6月6日 23:59

ステップ2

エントリーシート提出
コーディングテスト受験

受験案内:
5月20日~
受験期限:
6月8日 15:00

ステップ3

オンライン面接

(6月末~7月上旬)

ステップ4

選考結果ご連絡

(7月中旬~下旬)

注意事項

・参加コースのご希望はエントリーシートにてご選択ください(複数選択可)。
・第1希望のコースから優先的に選考させていただきますが、応募者多数の場合は第2希望以下のコースにご参加いただく可能性があります。
・インターンシップは就業体験を目的としておりますので、18歳以上30歳以下の現在在学中(高校生を除く)の方以外の方のご応募はご遠慮ください。
・日本国内での就労資格がない方はご参加いただくことができません。

採用情報 公式SNSアカウント

このページの先頭へ