Ի՞նչ է nn գծային PyTorch-ում:
Ի՞նչ է nn գծային PyTorch-ում:

Video: Ի՞նչ է nn գծային PyTorch-ում:

Video: Ի՞նչ է nn գծային PyTorch-ում:
Video: Ահա թե ինչ է ասել Բայրոնը ՀԱՅԵՐԵՆԻ մասին... #հայերեն 2024, Նոյեմբեր
Anonim

Փաստաթղթերից՝ CLASS ջահ: nn . Գծային (in_features, out_features, bias=True) Կիրառվում է a գծային փոխակերպում մուտքային տվյալների՝ y = xW^T + b. Պարամետրեր. in_features – յուրաքանչյուր մուտքային նմուշի չափը:

Նմանապես, հարցնում են՝ ինչպե՞ս է աշխատում NN գծայինը:

Գծային . Կիրառվում է ա գծային փոխակերպում մուտքային տվյալներին, այսինքն. //y= Ax+b//: Forward(input)-ում տրված մուտքային տենզորը պետք է լինի կամ վեկտոր (1D թենզոր) կամ մատրիցա (2D տենզոր): Եթե մուտքագրումը մատրիցա է, ապա յուրաքանչյուր տող ենթադրվում է որպես տվյալ խմբաքանակի մուտքային նմուշ:

Նմանապես, ի՞նչ է conv2d-ը PyTorch-ում: conv2d (ներածում, քաշ, ես. կողմնակալություն, ես. քայլ, ես. լիցքավորում, ես. լայնացում, ես.

Երկրորդ, ինչ է PyTorch nn-ը:

PyTorch : nn Այն nn փաթեթը սահմանում է մոդուլների մի շարք, որը դուք կարող եք պատկերացնել որպես նեյրոնային ցանցի շերտ, որն արտադրում է ելք մուտքից և կարող է ունենալ որոշ վերապատրաստվող կշիռներ: ներմուծման ջահը # N խմբաքանակի չափն է; D_in-ը մուտքային չափն է; # H-ը թաքնված հարթություն է; D_out-ը ելքային չափն է:

Ինչպե՞ս եք օգտագործում ReLU-ն PyTorch-ում:

Մեջ PyTorch , կարող եք կառուցել ա ReLU շերտ օգտագործելով պարզ ֆունկցիա relu1 = nn: ReLU inplace=False արգումենտով: Քանի որ ReLU ֆունկցիան կիրառվում է տարրական առումով, կարիք չկա նշելու մուտքային կամ ելքային չափերը: Inplace արգումենտը որոշում է, թե ֆունկցիան ինչպես է վերաբերվում մուտքագրմանը:

Խորհուրդ ենք տալիս: