Start a new project
Projects Architectures
Blank
An empty project where you can
design and build your own
network.
Create in playground
Long short term memory
A type of RNN specifically
designed to avoid long-term
dependency issues.
Coming soon
Neural hub
Beta v1.0.2
Models
Regression network
A neural network designed to
predict continuous numeric
values such as stock prices,
weather...
Create in playground
1960
Coming soon
Research
V-Auto encoder
Used in advanced networks,
data compression, anomaly
detection.
2013
Community
Create in playground
Classification network
A neural network tailored for
categorizing input data into
various classes. Used various
recognition tasks.
game.
1960
B
Coming soon
Generative adversarial
Consists of a generator and
discriminator, competing in a
2014
Convolutional network
Convolutional layers that break
down and understand images,
optimizing feature extraction
and recognition.
Coming soon
1989
Coming soon
2017
Transformer
Uses an encoder & decoder
network alongside attention
mechanism. The underlying
architecture of GPT.
Recurrent network
Designed to recognize patterns
in sequences of data, like time
series or natural language.
Coming soon
1980
Coming soon
2022
Diffusion
Learns to generate new data
from a probability distribution.
Used in Midjourney & DALL-E.
新しいプロジェクトを開始します
プロジェクト アーキテクチャ
空白
独自の
ネットワークを
設計および構築できる空のプロジェクト。
プレイグラウンドで作成
長期短期記憶
>長期的な
依存関係の問題を回避するために特別に設計された RNN の一種。
近日公開予定
ニューラル ハブ
ベータ版 v1.0.2
モデル
回帰ネットワーク
株価、天気などの
連続数値
値を
予測するように設計されたニューラル ネットワーク
遊び場で作成
1960年
近日公開
研究
V - オート エンコーダ
高度なネットワーク、
データ圧縮、異常
検出で使用されます。
2013
コミュニティ
プレイグラウンドで作成
分類ネットワーク
用途に合わせたニューラル ネットワーク入力データを
さまざまなクラスに分類します。さまざまな
認識タスクを使用しました。
ゲーム。
1960年
B
近日公開予定
敵対生成型
ジェネレーターと
ディスクリミネーターで構成され、
2014
畳み込みネットワーク
画像を
分解して理解し、
特徴抽出
と認識を最適化する畳み込み層
近日公開
1989年
近日公開
2017年
トランスフォーマー
エンコーダー&アンプを使用デコーダ
ネットワークとアテンション
メカニズム。 GPT の基礎となる
アーキテクチャ。
リカレント ネットワーク
時系列や自然言語など、一連のデータのパターンを
認識するように設計されています。
近日公開
1980年
>近日公開予定
2022 年
拡散
確率分布から
新しいデータを生成する方法を学習します。
Midjourney および 2022 で使用されます。ダルイー。
Start a new project
Projects
Architectures
VGG16
Convolutional Neural Network
for Image Classification
MobileNetV2
Efficient Convolutional Network
for Mobile Vision
Neural hub
Beta v1.0.2
Models
ResNet-50
Deep Residual Network for
Image Classification
EfficientNet
Efficient Network for Scaling
CNNs
Research Community
BERT
Bidirectional Transformer for
Natural Language Processing
Transformer-XL
Transformer with Extra Long
Context for NLP tasks
GPT-2
Generative Pre-trained
Transformer for Text Generation
CycleGAN
Generative Adversarial Network
for Image-to-Image Translation
mms
YOLOV3
Real-Time Object Detection
DistilBERT
Lightweight BERT for Distillation
新しいプロジェクトの開始
プロジェクト
アーキテクチャ
VGG16
畳み込みニューラル ネットワーク
画像分類用
MobileNetV2
効率的な畳み込みネットワーク
モバイル ビジョン用
ニューラル ハブ< br>ベータ v1.0.2
モデル
ResNet-50
画像分類のための深層残留ネットワーク
EfficientNet
スケーリングのための効率的なネットワーク
CNN
研究コミュニティ
>BERT
自然言語処理のための双方向トランスフォーマー
Transformer-XL
エクストラロングトランスフォーマー
NLPタスク用コンテキスト
GPT-2
事前トレーニング済み生成
テキスト生成用のトランスフォーマー
CycleGAN
敵対的生成ネットワーク
画像から画像への変換用
mms
YOLOV3
リアルタイムオブジェクト検出
DistilBERT
軽量BERT蒸留
How
Stage 4 - LAUNCH
Examine the model metrics, test it on new datasets, and benchmark it against other
networks. Finally, you'll have the capability to export, share and publish your network to
the platform for others to check out and provide feedback!
Restart
Model 8
Trained at 13:14 07/08/2023
Tested
Training loss: 27%
Validation loss: 33%
Testing loss: 28%
Training accuracy: 91%
Validation accuracy: 89%
Testing accuracy: 93%
Dataset: MNIST
Correct predictions: 93/100
Layer 1: Input layer
Layer 2: Hidden layer-64-sigmoid
Layer 3: Hidden layer-128-sigmoid
Layer 4: Output layer-62-softmax
Epochs: 100
Batch: 60
Learning Rate: 0.003
Optimizer: Adam
Loss: Sparse categorical crossentropy
Metrics: Accuracy
TEST
EXPORT
BEST
DELETE
方法
ステージ 4 - 起動
モデルのメトリクスを調べ、新しいデータセットでテストし、他の
ネットワークに対してベンチマークを行います。最後に、ネットワークをエクスポート、共有、公開できるようになります。
他の人がチェックアウトしてフィードバックを提供できるプラットフォームに
再起動します
モデル 8
13:14 07/にトレーニングされました2023 年 8 月
テスト済み
トレーニング損失: 27%
検証損失: 33%
テスト損失: 28%
トレーニング精度: 91%
検証精度: 89%
テスト精度: 93%
データセット: MNIST
正しい予測: 93/100
レイヤー 1: 入力レイヤー
レイヤー 2: 非表示レイヤー-64-シグモイド
レイヤー 3: 非表示レイヤー-128 -シグモイド
レイヤー 4: 出力レイヤー-62-ソフトマックス
エポック: 100
バッチ: 60
学習率: 0.003
オプティマイザー: Adam
損失: スパースカテゴリカルクロスエントロピー
メトリクス: 精度
テスト
エクスポート
最良
削除
Mission
We are yet to fully understand how these networks work the way they do and how to make them autonomous and generalise. Staying
ahead of continuous research and development in the AI field poses a significant challenge, particularly for newcomers eager to learn and
experiment with these novel inventions. We recognize the need for a unified space where everything comes together, facilitating a
collaborative environment for learning, research and development.
Transwitz
For getting an early access, please visit https://neuralhub.ai/.