求人検索
arcbricks株式会社
【東京:リモート】データベースエンジニア(Databricks)
募集内容
| 募集職種 | 【東京:リモート】データベースエンジニア(Databricks) |
|---|---|
| 仕事内容 | 【職務概要】 Databricksを活用し、単なるデータ処理のみならず、AI・機械学習活用を前提としたアーキテクチャ設計やデータ基盤の刷新プロジェクトにも携わって頂きます。エンジニアとしての市場価値を大きく高められる環境です。 【職務詳細】 ・Databricks Lakehouseの設計・構築 ・DLT(Delta Live Tables)パイプラインの実装・運用 ・Unity Catalogの設計・データガバナンス構築 ・既存DWH/ETLからのマイグレーションプロジェクト実行 ・ETL/ELTパイプライン開発(Python/Spark/SQL) ・パフォーマンス最適化、運用改善 ・技術検証(PoC)、ベストプラクティス整理 ・クライアントへの技術支援・技術レビュー 【業務で得られる経験】 ・Databricksエキスパートとしてのスキルを一気に高められる ・大規模データ基盤 × AI活用プロジェクトの実戦経験 ・最新技術の検証・実装をリードできる ・顧客のDX推進に直接貢献できる ・少数精鋭チームで裁量大 & 高速成長 |
| メッセージ | 同社のミッションは、「データを単なる資源からビジネス成長を支える力に変える」こと。今アメリカで急成長中のデータ・AIプラットフォーム「Databricks」を最大限に活用したData+AIソリューションの提供を通じて、 お客様のビジネスを次のステージへと導きます。 同社が大切にしているのは、単なるツールの導入ではありません。 データ基盤の構築からユースケースの企画、PoC実施、AI人材の育成支援による組織強化まで、 お客様のデータ・AI利活用を一気通貫で伴走し、確実な成果を創出します。 |
| 応募資格 | 【必須】 ・Databricks認定資格(DA/DE/DAE のいずれか)保持者 ・Databricksを用いた 実装経験 2年以上 ・DLT、Unity Catalog、Delta Lake いずれかの実務経験 ・Python/Spark/SQL を用いたデータパイプライン開発経験 ・データ基盤プロジェクトにおける設計~実装の実務経験 ・自律的にプロジェクトを推進できる方 ・レガシーDWHからの移行経験 ・クラウド(AWS/Azure/GCP)いずれかの実務スキル ・BI/分析基盤の構築経験 【尚可】 ・Databricks Champion/SME/コミュニティ活動経験 ・Databricksを用いたPoC・提案の経験 ・プロジェクトマネジメント(PM)の経験 |
| 求めるスキル | ・セルフスターターな方 |
| 勤務地 | 東京都中央区日本橋2丁目1−3 アーバンネット日本橋二丁目ビル6階 |
| 勤務時間 | フレックスタイム制※標準労働時間1日8時間(コアタイム10:00~16:00) |
| 想定給与 | ■経験、スキル、年齢を考慮の上、同社規定により優遇 |
| 待遇/福利厚生 | 各種社会保険完備(健康保険・厚生年金・雇用保険・労災保険)、資格取得支援制度(同社が推奨する資格取得プログラムは全額会社負担)、社外社員相談窓口(カウンセリングサービス)の利用、団体保険加入制度有、定期健康診断、通勤交通費支給 |
| 休日/休暇 | 年間休日【122日】、完全週休2日制(土・日)・祝日・年末年始休暇、有給休暇 ※初年度から最大13日(入社から3か月経過後。入社月に応じて付与日数変動)、慶弔休暇 |
| 雇用形態 | 正社員 |
企業情報
| 会社名 | arcbricks株式会社 |
|---|---|
| 事業内容 | ■Data+AIソリューションの提供■Databricksコンサルティング■システム開発・保守 |
| 本社所在地 | 〒103-0027東京都中央区日本橋2丁目1−3アーバンネット日本橋二丁目ビル6階 |
| 設立年 | 2025年4月 |
| 従業員数 | 12名 |
| 資本金 | 5000万円 |

