数百人の最前線の研究者から信頼され、引き合いに出されています

気候学から医療研究、NLPとコンピュータビジョンにおける重要な発見まで、Weights & Biasesは、共同研究における再現性向上をサポートしています。W&Bが引き合いに出された500を超える文書をご覧ください。

研究および教育向けW&B

再現性研究のロギング自動化

DALL-E miniによる共同研究の入門書

W&Bレポートにおける研究発見事項の共有

W&Bを使用した公開可能なグラフィックスの作成方法

授業課題としてのW&Bレポート例

Weights & Biasesの引用方法

W&Bを使用した研究の成功事例などがある場合、詳細内容をお聞かせください。右側にある情報を使って弊社を引き合いに出すことができますが、弊社では、貴社の作業についてぜひ直接お聞きしたいと思います。電子メール(research@wandb.com)でご連絡ください。

W&B引用方法を確認 

@misc{wandb,
title = {Experiment Tracking with Weights and Biases},
year = {2020},
note = {Software available from wandb.com},
url={https://www.wandb.com/},
author = {Biewald, Lukas},
}

すべてを記録すれば何も失うことがありません

実験を再現できないと、次の大きな発見につながりません。Weights & Biasesを使えば、記録する内容とタイミングを選べるため、手動の管理作業が減り、より多くのモデル学習を実施できるようになります。

一般的なあらゆるフレームワークおよび数千のMLレポジトリと統合

Weights & Biasesはさまざまなツールで適切に動作します。PyTorch、KerasおよびJAXから、MLランドスケープ全体の特定分野のレポジトリまで、弊社の製品は問題なく統合できます。弊社のドキュメントで、最も一般的な統合を(およびどのように動作するか)確認してください。

教育者、授業助手、学生向けリソース

あなたと生徒が、教室、実験室、または学生が運営する団体でWeights & Biasesを使って、共同で再現可能な機械学習とディープラーニングを実現するのを支援するための入門的コンテンツが含まれています。

無料リソースを見る  →

専門家からMLOpsについて学ぶ

このW&Bの多様な無料コースで、モデル開発を加速および拡大し、生産性を高め、再現性とモデルの履歴を確実にし、そして何よりも、より優れたモデルを素早く学習する方法を発見してください。

無料で登録 →

リアルタイムでチームとコラボレーション

Weights & Biasesはコラボレーション向けに作られています。ありとあらゆる実験を単一システムに記録することで、研究チームはすべてのデータセットとモデルバージョン、git commit、および最新の実験に対するアクセスを共有することができます。

チームの作業方法を学ぶ →

簡単なインストール、高い利便性

ML実験をすべて1か所でトラッキング、比較、可視化。学術関係者や研究者は、弊社の一式の機能すべてにアクセスでき、コード5行だけで開始できます。

LIVE NOTEBOOKを試す
# Flexible integration for any Python script
import wandb
# 1. Start a W&B run
wandb.init(project='gpt4')
config = wandb.config
config.learning_rate = 0.01
# 2. Save model inputs and hyperparameters
# Model training here
# 3. Log metrics over time to visualize performance
wandb.log({"loss": loss})
import wandb
# 1. Start a W&B run
wandb.init(project='gpt3')
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
# Model training here
# 3. Log metrics over time to visualize performance
with tf.Session() as sess:
# ...
wandb.tensorflow.log(tf.summary.merge_all())
import wandb
# 1. Start a new run
wandb.init(project="gpt-3")
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
# 3. Log gradients and model parameters
wandb.watch(model)
for batch_idx, (data, target) in
enumerate(train_loader):
if batch_idx % args.log_interval == 0:
# 4. Log metrics to visualize performance
wandb.log({"loss": loss})
import wandb
from wandb.keras import WandbCallback
# 1. Start a new run
wandb.init(project="gpt-3")
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
... Define a model
# 3. Log layer dimensions and metrics over time
model.fit(X_train, y_train, validation_data=(X_test, y_test),
callbacks=[WandbCallback()])
import wandb
wandb.init(project="visualize-sklearn")
# Model training here
# Log classifier visualizations
wandb.sklearn.plot_classifier(clf, X_train, X_test, y_train, y_test, y_pred, y_probas, labels, model_name='SVC', feature_names=None)
# Log regression visualizations
wandb.sklearn.plot_regressor(reg, X_train, X_test, y_train, y_test,  model_name='Ridge')
# Log clustering visualizations
wandb.sklearn.plot_clusterer(kmeans, X_train, cluster_labels, labels=None, model_name='KMeans')
# 1. Import wandb and login
import wandb
wandb.login()
# 2. Define which wandb project to log to and name your run
wandb.init(project="gpt-3", run_name='gpt-3-base-high-lr')
# 3. Add wandb in your Hugging Face `TrainingArguments`
args = TrainingArguments(... , report_to='wandb')
# 4. W&B logging will begin automatically when your start training your Trainer
trainer = Trainer(... , args=args)
trainer.train()
import wandb
# 1. Start a new run
wandb.init(project="visualize-models", name="xgboost")
# 2. Add the callback
bst = xgboost.train(param, xg_train, num_round, watchlist, callbacks=[wandb.xgboost.wandb_callback()])
# Get predictions
pred = bst.predict(xg_test)

Just a few of the top universities using W&B

共同作業者が同じ大学に所属している、またはさまざまな国に分散しているとしても、W&Bがあれば学術研究が簡単になります。また、学生、教育者、および大学研究者であれば、無料でご利用いただけます。