Pupọ wa faramọ pẹlu awọn olupilẹṣẹ aworan AI bii Iduroṣinṣin Itankale. O ti yipada ile-iṣẹ tẹlẹ ati pe o ti dapọ si awọn igbesi aye wa.
Sibẹsibẹ, awọn awoṣe Diffusion Stable jẹ pupọ diẹ sii ju iran aworan lọ.
Awọn agbegbe pupọ lo wa ninu eyiti a le gba wọn ṣiṣẹ.
Awọn awoṣe Itankale Iduroṣinṣin jẹ awọn awoṣe mathematiki. Ati pe, wọn le ṣe iranlọwọ fun ọ lati ṣe iwadii awọn agbara ti awọn eto iyipada lori akoko.
Wọn da lori awọn ilana ilana itankale. Nitorinaa, o le ṣe ayẹwo ọpọlọpọ awọn iyalẹnu. Fun apere; gbigbe ooru, awọn aati kemikali, ati itankale alaye ni awọn ọja inawo.
Awọn awoṣe wọnyi jẹ iyipada pupọ. Nitorinaa, o le nireti ipo iwaju ti eto ti o da lori ipo lọwọlọwọ rẹ.
Ni afikun, o le rii awọn ipilẹ ti ara tabi awọn ilana inawo ti o ṣakoso rẹ. Ilana yii ti wulo pupọ ni ọpọlọpọ awọn agbegbe. Iwọnyi pẹlu fisiksi, kemistri, ati inawo.
Eyi ni idi ti a fẹ lati ṣe iwadi siwaju sii. Ati pe, a fẹ lati fun ọ ni ikẹkọ lori bii o ṣe le kọ awọn awoṣe Itankale Stable wọnyi.
Bawo ni Awọn awoṣe Itankale Iduroṣinṣin Wa Nipa?
Eleyi ni o ni wá pada si awọn pẹ 19th orundun.
Iwadii mathematiki ti awọn ilana itankale ni awọn ọran ni ibiti awọn awoṣe Itankale Stable ti bẹrẹ. Ọkan ninu awọn awoṣe Diffusion Stable olokiki julọ ni idogba Fokker-Planck.
A kọkọ gbekalẹ ni 1906. Awọn awoṣe wọnyi ti wa ati ti yipada nipasẹ akoko. Nitorinaa, a lo wọn ni awọn ile-iṣẹ oriṣiriṣi.
Kí Ni Ìrònú Tó Wà Lẹ́yìn Rẹ̀?
Ni awọn ọrọ ti o rọrun, bi a ti sọ, wọn jẹ awọn awoṣe mathematiki. Ni afikun, wọn ṣe iranlọwọ fun wa lati ṣe iwadii bii ohun-ini tabi opoiye ṣe n tan kaakiri akoko ninu eto kan.
Wọn da lori awọn ilana ilana itankale. Nitorinaa, wọn ṣe iranlọwọ fun wa lati ṣe iwadii bii opoiye ṣe n tan kaakiri eto kan. Itankale yii jẹ abajade ti awọn iyatọ ninu ifọkansi, titẹ, tabi awọn aye miiran.
Jẹ ki a fun apẹẹrẹ ti o rọrun. Fojuinu pe o ni apoti kan ti o kun fun omi ninu eyiti o ti ṣafikun awọ kan. Itankale ni a rii nibi nigbati awọ bẹrẹ lati tuka ati emulsify ninu omi. Da lori awọn abuda ti omi ati dai, awọn awoṣe Diffusion Stable le ṣee lo lati ṣe asọtẹlẹ bii awọ yoo ṣe tuka ati dapọ ni akoko pupọ.
Ni awọn ọna ṣiṣe eka diẹ sii, bii awọn ọja inawo tabi awọn aati kemikali, awọn awoṣe wọnyi le ṣe asọtẹlẹ bii alaye tabi awọn abuda yoo ṣe tan kaakiri ati ni ipa lori eto naa ni akoko pupọ. Ni afikun, data nla le lo lati irin wọnyi si dede lati ṣe awọn asọtẹlẹ deede. Wọn ti kọ wọn nipa lilo awọn agbekalẹ mathematiki ti o ṣe apejuwe itankalẹ igba pipẹ ti eto naa.
Imọye ati asọtẹlẹ itankale awọn ami kan ninu eto nipasẹ akoko jẹ imọran akọkọ ti o wa labẹ awọn awoṣe wọnyi. O ṣe pataki lati ranti pe awọn amoye ni awọn aaye pataki ni igbagbogbo lo awọn awoṣe wọnyi.
Bawo ni lati Kọ Awọn awoṣe?
Pejọ ki o mura data rẹ:
O gbọdọ kọkọ ṣajọ ati ṣeto data rẹ ṣaaju ki o to bẹrẹ ikẹkọ awoṣe rẹ. Awọn data rẹ le nilo lati sọ di mimọ ati tito akoonu. Pẹlupẹlu, awọn nọmba ti o padanu le tun nilo lati yọkuro.
Yan a faaji awoṣe
Awọn awoṣe Itankale Iduroṣinṣin wa ni ọpọlọpọ awọn fọọmu. O da lori ipilẹ Fokker-Planck, idogba Schrödinger, ati idogba Titunto. Awoṣe ti o dara julọ ni ibamu pẹlu ipo rẹ pato gbọdọ jẹ yiyan. Nitorinaa, ọkọọkan awọn awoṣe wọnyi ni awọn anfani ati awọn alailanfani.
Ṣiṣeto iṣẹ isonu rẹ
O ṣe pataki nitori pe o ni ipa lori bii awoṣe rẹ ṣe le baamu data naa. Fun awọn awoṣe Itankale Stable, aṣiṣe onigun mẹrin tumọ si ati iyatọ Kullback-Leibler jẹ awọn iṣẹ isonu loorekoore.
Irin rẹ awoṣe
Lilo sitokasitik gradient iran tabi ọna iṣapeye ti o jọra, o le bẹrẹ ikẹkọ awoṣe rẹ lẹhin asọye iṣẹ isonu rẹ.
Ayewo rẹ awoṣe ká generalizability
O yẹ ki o ṣayẹwo data tuntun lẹhin ikẹkọ nipa ifiwera si eto idanwo ti data.
Tun awọn hyperparameters awoṣe rẹ ṣe
Lati mu iṣẹ awoṣe rẹ pọ si, ṣe idanwo pẹlu ọpọlọpọ awọn iye ti hyperparameters bii oṣuwọn ikẹkọ, iwọn ipele, ati nọmba awọn fẹlẹfẹlẹ ti o farapamọ ninu nẹtiwọọki.
Tun awọn iṣe ti tẹlẹ ṣe
O le nilo lati tun awọn ilana wọnyi ṣe diẹ sii ju ẹẹkan lọ lati gba awọn esi to dara julọ. Yoo da lori iṣoro ti iṣoro naa ati alaja ti data naa.
Ifaminsi Tutorial
Awọn ede siseto bii Python, MATLAB, C ++, ati R le ṣee lo lati ṣẹda awọn awoṣe Itankale Iduroṣinṣin. Ede ti a lo yoo dale lori ohun elo kan pato. Pẹlupẹlu, o le dale lori awọn irinṣẹ ati awọn ile-ikawe ti a ṣe wa fun ede yẹn.
Python jẹ aṣayan ti o dara julọ ninu ọran yii. O ni awọn ile-ikawe ti o lagbara bii NumPy ati SciPy fun iṣiro nọmba. Paapaa, o ṣe atilẹyin TensorFlow ati PyTorch fun ṣiṣẹda ati ikẹkọ awọn nẹtiwọọki nkankikan. Nitorinaa, o di aṣayan nla fun kikọ awọn awoṣe Diffusion Stable.
apere:
Jẹ ki a lo idogba itankale, agbekalẹ mathematiki ti o ṣe apejuwe bi didara tabi opoiye, gẹgẹbi ooru tabi ifọkansi nkan kan, yipada ni akoko pupọ ninu eto kan. Idogba ni gbogbogbo dabi eyi:
∂u/∂t = α∇²u
Olusọdipúpọ itankale () jẹ wiwọn bi o ṣe rọrun ohun-ini tabi opoiye ti ntan nipasẹ eto kan.
Laplacian ti u (2u) jẹ apejuwe bi ohun-ini tabi opoiye ṣe yipada pẹlu ọwọ si aaye. Nibo ni ohun-ini tabi opoiye ti n tan kaakiri (fun apẹẹrẹ, iwọn otutu tabi ifọkansi), t jẹ aye ti akoko, jẹ alasọdipúpọ kaakiri, ati pe o jẹ igbagbogbo itankale ().
A le ṣe imuse rẹ nipa lilo ọna Euler ni Python.
import numpy as np
# Define the diffusion coefficient
alpha = 0.1
# Define the initial condition (e.g. initial temperature or concentration)
u = np.ones(100)
# Time step
dt = 0.01
# Time-stepping loop
for t in range(1000):
# Compute the spatial derivative
du = np.diff(u)
# Update the value of u
u[1:] = u[1:] + alpha * du * dt
Koodu yii nlo ilana Euler lati ṣe imuse idogba itankale. O ṣe apejuwe ipo ibẹrẹ bi ipo ibẹrẹ aṣọ kan ti o jẹ aṣoju nipasẹ ọpọlọpọ awọn ti o ni apẹrẹ ti (100). 0.01 ni a lo bi igbesẹ akoko.
1000 iterations ti akoko-igbesẹ lupu ti wa ni ti pari.
O nlo iṣẹ np.diff, eyiti o pinnu iyatọ laarin awọn eroja agbegbe. Nitorinaa, o ṣe iṣiro itọsẹ aye ti ohun-ini tabi opoiye ti n tan kaakiri. Ati pe, o jẹ aṣoju nipasẹ du, ni aṣetunṣe kọọkan.
Lẹhinna a ṣe isodipupo itọsẹ aye nipasẹ alfa olùsọdipúpọ ati igbesẹ akoko lati ṣe imudojuiwọn iye u.
A Diẹ eka Apeere
Kini awoṣe itọka iduroṣinṣin ti o ṣe iwọn itọka igbona iduroṣinṣin nikan dabi? Bawo ni koodu yẹn ṣe n ṣiṣẹ?
Ṣiṣeto eto awọn idogba iyatọ ti apakan (PDEs) ti o ṣe alaye bi ooru ṣe ntan kaakiri eto lori akoko jẹ pataki. Nitorinaa, a le ṣe ikẹkọ awoṣe Itankale Idurosinsin ti o ṣe atunwi itọsẹ igbona iduroṣinṣin.
Eyi jẹ apejuwe ti bii idogba igbona, PDE kan ti o ṣe alaye Itankale Iduroṣinṣin ti ooru ni ọpá onisẹpo kan, le jẹ ipinnu nipa lilo ọna iyatọ ipari:
import numpy as np
import matplotlib.pyplot as plt
# Define the initial conditions
L = 1 # length of the rod
Nx = 10 # number of spatial grid points
dx = L / (Nx - 1) # spatial grid spacing
dt = 0.01 # time step
T = 1 # total time
# Set up the spatial grid
x = np.linspace(0, L, Nx)
# Set up the initial temperature field
T0 = np.zeros(Nx)
T0[0] = 100 # left boundary condition
T0[-1] = 0 # right boundary condition
# Set up the time loop
Tn = T0
for n in range(int(T / dt)):
Tnp1 = np.zeros(Nx)
Tnp1[0] = 100 # left boundary condition
Tnp1[-1] = 0 # right boundary condition
for i in range(1, Nx - 1):
Tnp1[i] = Tn[i] + dt * (Tn[i+1] - 2*Tn[i] + Tn[i-1]) / dx**2
Tn = Tnp1
# Plot the final temperature field
plt.plot(x, Tn)
plt.xlabel('x')
plt.ylabel('T(x)')
plt.show()
Bawo ni Ipilẹṣẹ Aworan lati Ṣiṣẹ Ọrọ?
Niwọn bi o ti jẹ olokiki pupọ lori intanẹẹti, a le ṣayẹwo bii iran aworan ṣiṣẹ daradara.
Adayeba ede processing (NLP) awọn ọna ati awọn nẹtiwọki ti nhu. Ati pe, wọn maa n lo nigbagbogbo lati pese awoṣe Itankale Iduroṣinṣin fun iyipada ọrọ-si-aworan. Apejuwe gbooro ti bi o ṣe le ṣaṣeyọri rẹ ni a pese ni isalẹ:
1- Tokenize awọn ọrọ ti o wa ninu data ọrọ, ati imukuro awọn ọrọ iduro ati aami ifamisi. Yipada awọn ọrọ si awọn iye iye. O jẹ apakan ti iṣaju (awọn ifibọ ọrọ).
import nltk
from nltk.tokenize import word_tokenize
nltk.download('punkt')
# Pre-processing the text data
text = "a bird sitting on a flower. "
words = word_tokenize(text)
words = [word.lower() for word in words if word.isalpha()]
2- Kọ ẹkọ bii o ṣe le ṣe ibatan ọrọ ati awọn aworan nipa lilo nẹtiwọọki nkankikan ti o ṣajọpọ kooduopo ati oluyipada kan. Nẹtiwọọki oluyipada gba koodu wiwaba bi titẹ sii. Lẹhinna, o ṣẹda aworan ti o somọ lẹhin ti nẹtiwọọki kooduopo ṣe iyipada data ọrọ sinu aṣoju iwapọ kan (koodu wiwakọ).
import tensorflow as tf
# Define the encoder model
encoder = tf.keras.Sequential()
encoder.add(tf.keras.layers.Embedding(input_dim=vocab_size,
output_dim=latent_dim))
encoder.add(tf.keras.layers.GRU(latent_dim))
encoder.add(tf.keras.layers.Dense(latent_dim))
# Define the decoder model
decoder = tf.keras.Sequential()
decoder.add(tf.keras.layers.Dense(latent_dim,
input_shape=(latent_dim,)))
decoder.add(tf.keras.layers.GRU(latent_dim))
decoder.add(tf.keras.layers.Dense(vocab_size))
# Combine the encoder and decoder into an end-to-end model
model = tf.keras.Sequential([encoder, decoder])
3- Nipa fifunni pẹlu akojọpọ titobi ti awọn aworan ati awọn apejuwe ọrọ ti o lọ pẹlu wọn. Lẹhinna, o le ṣe ikẹkọ nẹtiwọọki oluyipada koodu.
# Compile the model
model.compile(optimizer='adam',
loss='categorical_crossentropy')
# Train the model on the dataset
model.fit(X_train, y_train, epochs=10, batch_size=32)
4- Lẹhin ti nẹtiwọọki ti ni ikẹkọ, o le lo lati ṣe agbejade awọn aworan lati awọn igbewọle ọrọ tuntun. Ati pe, o jẹ nipa kikọ sii ọrọ sinu nẹtiwọọki kooduopo. Lẹhinna, o le ṣe agbejade koodu wiwaba, lẹhinna ifunni koodu wiwaba sinu nẹtiwọọki decoder lati gbe aworan ti o somọ jade.
# Encode the text input
latent_code = encoder.predict(text)
# Generate an image from the latent code
image = decoder.predict(latent_code)
5-Aṣayan dataset ti o yẹ ati awọn iṣẹ pipadanu jẹ ọkan ninu awọn igbesẹ pataki julọ. Atọka data yatọ ati ni ọpọlọpọ awọn aworan ati awọn apejuwe ọrọ ni ninu. A fẹ lati rii daju wipe awọn aworan ni o wa bojumu. Pẹlupẹlu, a nilo lati ni idaniloju pe awọn apejuwe ọrọ jẹ o ṣeeṣe ki a le ṣe apẹrẹ iṣẹ isonu naa.
# Define the loss function
loss = tf.losses.mean_squared_error(y_true, y_pred)
# Compile the model
model.compile(optimizer='adam', loss=loss)
# use diverse dataset
from sklearn.utils import shuffle
X_train, y_train = shuffle(X_train, y_train)
Lakotan, o le ṣe idanwo pẹlu awọn faaji miiran ati awọn ilana. Nitorinaa, pe o le gbe iṣẹ awoṣe soke, bii awọn ilana akiyesi, GANs, tabi VAEs.
Fi a Reply