数十億ものパラメーターを使用して機械学習の基礎モデルをトレーニングするには、相当な計算能力が必要です。たとえば、OpenAI の DALL-E 2 の背後にある有名な大規模言語モデルである GPT-3 の最大バージョンには、1,750 億のパラメーターがあり、真に強力なハードウェアが必要です。このモデルは、Microsoft が特別に OpenAI 用に開発した AI スーパーコンピューターでトレーニングされました。続きを読む… 投稿 IBM コラボレーションが大規模な AI モデルを任意のクラウドにもたらすように見えます Datanami に最初に登場しました。