logo

TensorBoard

TensorFlow er et visualiseringsverktøy, som kalles TensorBoard. Den brukes til å analysere dataflytgrafen og brukes til å forstå maskinlæringsmodeller. TensorBoard er grensesnittet som brukes til å visualisere grafen og mange verktøy for å forstå, feilsøke og optimalisere modellen.

Den viktige funksjonen til TensorBoard er at den inkluderer en visning av forskjellige typer statistikk om parametrene og detaljene til enhver graf i en vertikal justering.

selen

Det dype nevrale nettverket inkluderer opptil 36 000 noder. TensorFlow hjelper til med å kollapse disse nodene i høy grad med å kollapse disse nodene i blokker på høyt nivå og fremheve de identiske strukturene. Dette tillater bedre analyse av grafen, med fokus på de primære delene av beregningsgrafen.

TensorBoard

TensorBoard-visualiseringen sies å være veldig interaktiv der en bruker kan panorere, zoome og utvide nodene for å vise detaljene.

Følgende er den gitte diagramrepresentasjonen viser den fullstendige driften av TensorBoard-visualisering-

TensorBoard

Algoritmene kollapser nodene til høynivåblokker og fremhevet de spesifikke gruppene med identiske strukturer, som skiller høygradsnodene. TensorBoard opprettet er nyttig og behandles like viktig for å justere en maskinlæringsmodell. Dette visualiseringsverktøyet er designet for konfigurasjonsloggfilen.

Se på bildet nedenfor:

TensorBoard

Et nevralt nettverk bestemmer hvordan de forskjellige ' nevroner ' og hvor mange lag før modellen kan forutsi utfallet. Når vi har definert arkitekturen, trenger vi ikke bare å trene modellen, men også beregninger for å beregne nøyaktigheten til prediksjonen. Denne metrikken omtales som en tapsfunksjon. Målet er å som en tapsfunksjon.

TensorBoard er et flott verktøy for å visualisere beregninger og fremheve potensielle problemer. Det nevrale nettverket kan ta timer til uker før de finner en løsning. TensorBoard oppdaterer parametrene veldig ofte.

TensorBoard ligger i denne URLen: http://localhost:6006

Typer DashBoard i TensorBoard

TensorBoard

1. Skalar Dashboard

Den brukes til å visualisere tidsavhengig statistikk; for eksempel vil vi kanskje se på variasjonene i læringsraten eller tapsfunksjonen.

2. Histogram

Histogram Dashboard i TensorBoard viser hvordan den statistiske fordelingen av en Tensor har variert over tid. Den visualiserer data registrert via tf.summary.histogram .

avinstaller angular cli

3. Distribusjonsdashbord

Det viser en viss bruk på høyt nivå tf.summary.histogram . Den viser noen starter på høyt nivå på en distribusjon. Hver linje på diagrammet gir et hint om persentilen i fordelingen over dataene.

4. Bilde Dashboard

Dette viser png-en som ble lagret via en tf.summary.image . Radene tilsvarer etikettene og kolonnene til kjøringen. Ved å bruke dette bildedashbordet til TensorBoard kan vi bygge inn tilpassede visualiseringer.

5. Lyddashbord

Det er et utmerket verktøy for å bygge inn spillbare lydwidgets for lyd som er lagret via en tf.summary.audio . Dashbordet legger alltid inn den nyeste lyden for hver tag.

6. Graph Explorer

Den brukes først og fremst for å muliggjøre inspeksjon av TensorFlow-modellen.

7. Projektor

Den innebygde projektoren i TensorFlow brukes til flerdimensjonale data. Den innebygde projektoren leser data fra sjekkpunktfilen og kan settes opp med tilsvarende data, for eksempel en vokabularfil.

8. Tekstdashbord

Tekst Dashboard viser teksteksperter lagret via tf.summary.text. , inkluderer funksjoner som hyperkoblinger, lister og tabeller, alle støttes.

TensorBoard

Ulike visninger av TensorBoard

Ulike visninger tar innspill fra forskjellige formater og viser dem forskjellig. Vi kan endre dem på den oransje topplinjen.

    Skalarer-Visualiser skalarverdier, for eksempel klassifiseringsnøyaktighet.Kurve-Visualiser beregningsgrafen til modellen vår, som den nevrale nettverksmodellen.distribusjoner-Visualiser hvordan data endres over tid, for eksempel vekten av et nevralt nettverk.Histogrammer-Et mer avansert syn på distribusjonen som viser en distribusjon som viser distribusjoner i et 3-dimensjonalt perspektiv.projektor-Det kan brukes til å visualisere ordinnbygging (det vil si at ordinnbygging er numeriske representasjoner av ord som fanger deres semantiske relasjoner)Bilde-Visualisere bildedatalyd-Visualisere lyddataTekst-Visualisere tekstdata

Hvordan bruke TensorBoard?

Vi vil lære hvordan du åpner TensorBoard fra terminalen for MacOS og kommandolinje Windows.

Koden vil bli forklart i en fremtidig opplæring; fokus her er på TensorBoard.

Først må vi importere bibliotekene vi skal bruke under opplæringen.

 ## Import the library import tensorflow as tf import numpy as np 

Vi lager dataene. Det er en matrise med 10 000 rader og kolonner/p>

 X_train = (np.random.sample((10000,5))) y_train = (np.random.sample((10000,1))) X_train.shape 

hvis annet java

Koden nedenfor transformerer dataene og lag modellen.

Merk at læringsraten er lik 0,1. Hvis vi endrer denne satsen til en høyere verdi, vil ikke modellen finne en løsning. Dette er hva som skjedde på venstre side av bildet over.

I eksemplet nedenfor lagrer vi modellen i arbeidskatalogen, dvs. hvor vi lagrer notatboken eller pythonfilen. Inne i banen oppretter TensorFlow en mappe kalt tog med et undermappenavn linreg.

 feature_columns = [ tf.feature_column.numeric_column('x', shape=X_train.shape[1:])] DNN_reg = tf.estimator.DNNRegressor(feature_columns=feature_columns, # Indicate where to store the log file model_dir='train', hidden_units=[500, 300], optimizer=tf.train.ProximalAdagradOptimizer( learning_rate=0.1, l1_regularization_strength=0.001 ) ) 

Produksjon:

 INFO:tensorflow:Using the default configuration. INFO:tensorflow:Using config:{'_model_dir': 'train/linreg', '_tf_random_seed': None, '_save_summary_steps': 100, '_save_checkpoints_steps': None, '_save_checkpoints_secs': 600, '_session_config': None, '_keep_checkpoint_max': 5, '_keep_checkpoint_every_n_hours': 10000, '_log_step_count_steps': 100, '_train_distribute': None, '_service': None, '_cluster_spec': , '_task_type': 'worker', '_task_id': 0, '_global_id_in_cluster': 0, '_master': '', '_evaluation_master': '', '_is_chief': True, '_num_ps_replicas': 0, '_num_worker_replicas': 1} 

Det siste trinnet består i å trene modellen. I løpet av opplæringsperioden skriver TensorFlow informasjon i modellkatalogen.

 # Train the estimator train_input = tf.estimator.inputs.numpy_input_fn( x={'x': X_train}, y=y_train, shuffle=False,num_epochs=None) DNN_reg.train(train_input,steps=3000) 

Produksjon:

 INFO:tensorflow:Calling model_fn. INFO:tensorflow:Done calling model_fn. INFO:tensorflow:Create CheckpointSaverHook. INFO:tensorflow: Graph was finalized. INFO:tensorflow:Running local_init_op. INFO:tensorflow:Done running local_init_op. INFO:tensorflow:Saving checkpoints for 1 into train/linreg/model.ckpt. INFO:tensorflow:loss = 40.060104, step = 1 INFO:tensorflow:global_step/sec: 197.061 INFO:tensorflow:loss = 10.62989, step = 101 (0.508 sec) INFO:tensorflow:global_step/sec: 172.487 INFO:tensorflow:loss = 11.255318, step = 201 (0.584 sec) INFO:tensorflow:global_step/sec: 193.295 INFO:tensorflow:loss = 10.604872, step = 301 (0.513 sec) INFO:tensorflow:global_step/sec: 175.378 INFO:tensorflow:loss = 10.090343, step = 401 (0.572 sec) INFO:tensorflow:global_step/sec: 209.737 INFO:tensorflow:loss = 10.057928, step = 501 (0.476 sec) INFO:tensorflow:global_step/sec: 171.646 INFO:tensorflow:loss = 10.460144, step = 601 (0.583 sec) INFO:tensorflow:global_step/sec: 192.269 INFO:tensorflow:loss = 10.529617, step = 701 (0.519 sec) INFO:tensorflow:global_step/sec: 198.264 INFO:tensorflow:loss = 9.100082, step = 801 (0.504 sec) INFO:tensorflow:global_step/sec: 226.842 INFO:tensorflow:loss = 10.485607, step = 901 (0.441 sec) INFO:tensorflow:global_step/sec: 152.929 INFO:tensorflow:loss = 10.052481, step = 1001 (0.655 sec) INFO:tensorflow:global_step/sec: 166.745 INFO:tensorflow:loss = 11.320213, step = 1101 (0.600 sec) INFO:tensorflow:global_step/sec: 161.854 INFO:tensorflow:loss = 9.603306, step = 1201 (0.619 sec) INFO:tensorflow:global_step/sec: 179.074 INFO:tensorflow:loss = 11.110269, step = 1301 (0.556 sec) INFO:tensorflow:global_step/sec: 202.776 INFO:tensorflow:loss = 11.929443, step = 1401 (0.494 sec) INFO:tensorflow:global_step/sec: 144.161 INFO:tensorflow:loss = 11.951693, step = 1501 (0.694 sec) INFO:tensorflow:global_step/sec: 154.144 INFO:tensorflow:loss = 8.620987, step = 1601 (0.649 sec) INFO:tensorflow:global_step/sec: 151.094 INFO:tensorflow:loss = 10.666125, step = 1701 (0.663 sec) INFO:tensorflow:global_step/sec: 193.644 INFO:tensorflow:loss = 11.0349865, step = 1801 (0.516 sec) INFO:tensorflow:global_step/sec: 189.707 INFO:tensorflow:loss = 9.860596, step = 1901 (0.526 sec) INFO:tensorflow:global_step/sec: 176.423 INFO:tensorflow:loss = 10.695, step = 2001 (0.567 sec) INFO:tensorflow:global_step/sec: 213.066 INFO:tensorflow:loss = 10.426752, step = 2101 (0.471 sec) INFO:tensorflow:global_step/sec: 220.975 INFO:tensorflow:loss = 10.594796, step = 2201 (0.452 sec) INFO:tensorflow:global_step/sec: 219.289 INFO:tensorflow:loss = 10.4212265, step = 2301 (0.456 sec) INFO:tensorflow:global_step/sec: 215.123 INFO:tensorflow:loss = 9.668612, step = 2401 (0.465 sec) INFO:tensorflow:global_step/sec: 175.65 INFO:tensorflow:loss = 10.009649, step = 2501 (0.569 sec) INFO:tensorflow:global_step/sec: 206.962 INFO:tensorflow:loss = 10.477722, step = 2601 (0.483 sec) INFO:tensorflow:global_step/sec: 229.627 INFO:tensorflow:loss = 9.877638, step = 2701 (0.435 sec) INFO:tensorflow:global_step/sec: 195.792 INFO:tensorflow:loss = 10.274586, step = 2801 (0.512 sec) INFO:tensorflow:global_step/sec: 176.803 INFO:tensorflow:loss = 10.061047, step = 2901 (0.566 sec) INFO:tensorflow:Saving checkpoints for 3000 into train/linreg/model.ckpt. INFO:tensorflow: Loss for the final step: 10.73032. 

For Windows-brukere

 cd C:UsersAdminAnaconda3 activate hello-tf 

For å starte TensorBoard kan vi bruke denne koden

 tensorboard --logdir=.	rainlinreg