top of page
アセット 2.png
アセット 2.png
アセット 2.png
Coming Soon

持続的なAI事業を実現するための
GPUクラウドサービス
分散学習、推論のオンデマンドを世界最安値で提供

bear_WH.png

持続的なAI事業を実現するための
GPUクラウドサービス

分散学習、推論のオンデマンドを
世界最安値で提供

アセット 7.png

複雑なインフラ構築作業が不要

​すぐに開発環境にアクセス

インスタンスには予め、CUDA、Python、Torch、Jupyter Lab等の、標準的な初期設定が構築されており、面等なインフラ構築作業にかかる工数を大幅に削減します。

アセット 11.png

世界最安値、オンデマンド高速GPU
分散学習にも対応

NVIDIA H100 をオンデマンドで、1時間あたり$2.90からご利用いただくことが可能です。オンデマンドGPUは分散学習にも対応しています。

アセット 10.png

高速・低遅延

安心・安定のネットワーク

ネットワークは、100Gbps専用線を用いています。高速・低遅延・安定した通信をご提供します。

AI開発における時間・費用を、大幅に削減します

bear_WH.png

AI開発における時間・費用を
大幅に削減します

アセット 7.png

複雑なインフラ構築作業が不要

​すぐに開発環境にアクセス

インスタンスには予め、CUDA、Python、Torch、Jupyter Lab等の、標準的な初期設定が構築されており、面等なインフラ構築作業にかかる工数を大幅に削減します。

アセット 11.png

世界最安値、オンデマンド高速GPU
分散学習にも対応

NVIDIA H100 をオンデマンドで、1時間あたり$2.90からご利用いただくことが可能です。オンデマンドGPUは分散学習にも対応しています。

アセット 10.png

高速・低遅延

安心・安定のネットワーク

ネットワークは、100Gbps専用線を用いています。高速・低遅延・安定した通信をご提供します。

index.png

サービスのメリット

設定

ソフトウェア構成

ネットワーク構成

​サーバ料金

bigbeargpuを利用する場合

分散学習に必要なソフトウェアは事前にセットアップ済みで、すぐに分散学習を利用可能

各ノードあたり3200Gbpsによるノード間の高速通信をすぐに利用可能

イニシャルコスト: なし
ランニングコスト: 小
契約体系: オンデマンド
(使用時間分だけ課金)

海外クラウドサービスを
利用する場合

自社で環境構築する場合

クラウド業者により、分散学習に必要なソフトウェアがプリインストールされているケースもあれば、されていないケースもある。後者の場合は、ユーザ側でセットアップする必要あり

GPUを搭載したベアメタルサーバおよび各インスタンスに、各種ソフトウェアをインストールする必要がある:

●GPUドライバ

●CUDA Toolkit 他

●ディープラーニングフレームワーク

●分散学習ライブラリなど…

クラウド業者により、高速通信が可能な Infiniband または RoCE、あるいは一般的なCPU経由での通信のいずれかが提供される

ノード間の高速通信を行うために、Infiniband や RoCE を導入し、専用のネットワークスイッチへ接続して環境構築を行う

イニシャルコスト: 中

ランニングコスト: 大

契約体系: リザーブドが主流

ベアメタルでの高額な初期投資

bigbeargpuのAI開発環境には予め標準的な開発環境が設定されており、複雑なインフラ構築作業が不要です。そのため、ユーザーは数ステップの操作ですぐに開発に取りかかることが可能です。また、高速GPUを必要な分だけ使うことができるため、従来よりも低コストでAI開発を行うことができます。GPUは分散学習にも対応しており、オンデマンドで利用いただくことが可能です。
 

ノード間の通信は3200Gbpsの高速な帯域を確保。分散学習など高い計算負荷にも対応します。外部ネットワークは100Gbpsの専用線を使用。高速で快適な開発環境をご提供します。AIの学習から推論まで、広い用途でお使いいただくことができます。

AIの開発や推論の環境構築が不要
分散学習にも対応した、オンデマンドGPUクラウドサービス

分散学習に必要な設定とコスト比較

設定

ソフトウェア

構成

ネットワーク

構成

​サーバ料金

bigbeargpuを利用する場合

分散学習に必要なソフトウェアは事前にセットアップ済みで、すぐに分散学習を利用可能

各ノードあたり3200Gbpsによるノード間の高速通信をすぐに利用可能

イニシャルコスト: なし
ランニングコスト: 小
契約体系: オンデマンド
(使用時間分だけ課金)

クラウド業者により、分散学習に必要なソフトウェアがプリインストールされているケースもあれば、されていないケースもある。後者の場合は、ユーザ側でセットアップする必要あり

クラウド業者により、高速通信が可能な Infiniband または RoCE、あるいは一般的なCPU経由での通信のいずれかが提供される

イニシャルコスト: 中

ランニングコスト: 大

契約体系: リザーブドが主流

ソフトウェア

構成

ネットワーク

構成

​サーバ料金

海外クラウドサービスを

利用する場合

設定

bigbeargpuのAI開発環境には予め標準的な開発環境が設定されており、複雑なインフラ構築作業が不要です。そのため、ユーザーは数ステップの操作ですぐに開発に取りかかることが可能です。また、高速GPUを必要な分だけ使うことができるため、従来よりも低コストでAI開発を行うことができます。GPUは分散学習にも対応しており、オンデマンドで利用いただくことが可能です。
 

ノード間の通信は3200Gbpsの高速な帯域を確保。分散学習など高い計算負荷にも対応します。外部ネットワークは100Gbpsの専用線を使用。高速で快適な開発環境をご提供します。AIの学習から推論まで、広い用途でお使いいただくことができます。

AIの開発や推論の環境構築が不要
分散学習にも対応した、オンデマンドGPUクラウドサービス

分散学習に必要な設定とコスト比較

ユーザ登録後、画面に従って、初期設定されているAIモデルや初期環境と使用するGPUの枚数を選択します。直感的に操作が可能な分かりやすい画面構成となっており、わずか数ステップでJupyter Labを立ち上げ、開発作業にとりかかることが可能です。

ユーザ登録
または
ログイン

アセット 12.png

アセット 17.png

インスタンスの選択

アセット 13.png

アセット 17.png

選択したインスタンスを確認

アセット 14.png

アセット 17.png

GPUの選択

&

デプロイ

アセット 15.png

アセット 17.png

開発環境へ

アクセス

アセット 16.png

わずか数ステップで、AI開発環境にアクセス

ユーザ登録後、画面に従って、初期設定されているAIモデルや初期環境と使用するGPUの枚数を選択します。直感的に操作が可能な分かりやすい画面構成となっており、わずか数ステップでJupyter Labを立ち上げ、開発作業にとりかかることが可能です。

わずか数ステップで
AI開発環境にアクセス

インフラは構築済み。すぐに使えるAIモデル

index.png

サービスのメリット

インスタンス利用開始から終了までのご利用時間(分単位)で、料金が算出されます。使用するGPU枚数ごとの料金は、以下の表をご参考ください。

NVIDIA H100 x 1~8

GPU

H100 x 1

H100 x 4

H100 x 8

vRAM

vCPU

RAM

Total Disk

1時間あたり
の料金

80 GB

19 cores

256 GB

1.75TB

$2.90

320 GB

76 cores

1.02 TB

8.75TB

$11.60

640 GB

152 cores

2.04 TB

14TB

$23.20

ご利用インスタンス別 料金表

index.png

サービスのメリット

インスタンス利用開始から終了までのご利用時間(分単位)で、料金が算出されます。使用するGPU枚数ごとの料金は、以下の表をご参考ください。

ご利用インスタンス別
料金表

NVIDIA H100 x 1~8

GPU

H100 x 1

H100 x 4

H100 x 8

vRAM

vCPU

RAM

Total Disk

料金
/1h

640 GB

152 cores

2.04 TB

14TB

$23.20

80 GB

19 cores

256 GB

1.75TB

$2.90

320 GB

76 cores

1.02 TB

8.75TB

$11.60

海外の主要国までの通信レイテンシー

本サービスを提供しているデータセンターは、最新の無停電電源装置(UPS)を完備しており、電力供給の安定性を最大限確保いたします。通信環境は、独自の100Gbps専用線により、高速・低レイテンシーによるリアルタイム処理で快適な開発環境を実現いたします。bigbeargpuクラウドを使うことで、日本以外の顧客へのAI推論もストレスなくご提供できます。

世界地図.png

​カナダ

7.93

アメリカ

7.57

ブラジル

237.42

アルゼンチン

240.12

イギリス

8.07

インド

111.49

ロシア

32.74

中国

9.42

台湾

37.95

タイ

85.92

シンガポール

8.99

インドネシア

74.51

オーストラリア

7.86

主要国までのpingのlatency

海外の主要国までの通信レイテンシー

本サービスを提供しているデータセンターは、最新の無停電電源装置(UPS)を完備しており、電力供給の安定性を最大限確保いたします。通信環境は、独自の100Gbps専用線により、高速・低レイテンシーによるリアルタイム処理で快適な開発環境を実現いたします。bigbeargpuクラウドを使うことで、日本以外の顧客へのAI推論もストレスなくご提供できます。

世界地図.png

​カナダ

7.93

アメリカ

7.57

ブラジル

237.42

アルゼンチン

240.12

イギリス

8.07

インド

111.49

ロシア

32.74

中国

9.42

台湾

37.95

タイ

85.92

シンガポール

8.99

インドネシア

74.51

オーストラリア

7.86

主要国までのpingのlatency

Coming soon

データの物理転送対応

アセット 4.png

bigbeargpuは、データの物理転送サービスの導入を予定しています。(2024年末頃導入予定)

データの物理転送対応

bigbeargpuは、データの物理転送サービスの導入を予定しています。(2024年末頃導入予定)

アセット 4.png
RUTILEA_logo_BK.png

運営会社

株式会社RUTILEA
〒604-8006
​京都府京都市中京区下丸屋町397番地 Y.J.Kビル6階

RUTILEA © 2024 All Rights Reserved.

株式会社RUTILEA
〒604-8006 京都府京都市中京区下丸屋町397番地 Y.J.Kビル6階

​運営会社

RUTILEA © 2024 All Rights Reserved.

bottom of page