Semalt padoms par to, kā izmantot dziļu mācīšanos, lai optimizētu savu automatizēto virsraksta tagu



Ātrs veids, kā uzņemties vadību jūsu SEO reitingā, ir iekļaut virsraksta atslēgvārdu viņu nosaukuma tagā. Un, ja jūs domājat par to minūti, jūs sapratīsit, ka tas patiešām ir gudrs risinājums. Ja jums ir lapa, kas jau ir ierindota pēc atslēgvārda, bet nosaukumā nav šī atslēgvārda, iedomājieties, cik svarīgi ir atslēgvārdam būt nosaukumā. Jūs, protams, biežāk indeksēsit šo atslēgvārdu; tādējādi jūs ierindojat labāk.

Ja mēs paņēmīsim šo atslēgvārdu un pievienosim to jūsu metaaprakstam, tie meklēšanas rezultātos parādīsies izcelti, kas nozīmē, ka, visticamāk, noklikšķinās vairāk meklētājprogrammu lietotāju. Tas, protams, dos labumu vietnei.

Iedomājieties, ka Semalt strādāja vietnē, kurā bija simtiem, tūkstošiem vai miljoniem lapu. Ja mums tas bija jādara manuāli, tas būs laikietilpīgs un ātri sadārdzināsies. Tātad, kā tad mēs varam analizēt tās lapu un optimizēt katru virsrakstu un meta aprakstu? Risinājums ir izmantot mašīnu. Mācot mašīnai katrā lapā atrast visaugstākā līmeņa atslēgvārdus, mēs ietaupām laiku un izmaksas. Mašīnas izmantošana var beigties ar labāku un ātrāku sniegumu nekā datu ievades komanda.

Atkārtoti ieviesīsim Ubera Ludvigu un Google T5

Apvienojot Uber Ludwig un Google T5, jums ir diezgan spēcīga sistēma.

Rezumējot, Ludvigs ir atvērtā koda automātiskais ML rīks, kas ļauj lietotājiem apmācīt uzlabotus modeļus, nerakstot kodu.

Savukārt Google T5 ir augstāka SERT stila modeļu versija. T5 var apkopot, tulkot, atbildēt uz jautājumiem un klasificēt meklēšanas vaicājumus, kā arī daudzas citas funkcijas. Īsumā tas ir ļoti spēcīgs modelis.

Tomēr nekas neliecina, ka T5 būtu apmācīts virsraksta tagu optimizēšanai. Bet varbūt mēs to varam izdarīt, un lūk, kā:
  • Mēs iegūstam apmācītu datu kopu ar šādiem piemēriem:
    • Oriģinālo nosaukumu tagi bez mūsu mērķa atslēgvārda
    • Mūsu mērķa atslēgvārds (-i)
    • Optimizēti virsrakstu tagi ar mērķa atslēgvārdiem
  • T5 tuninga kods un izmantojamās apmācības
  • Jums ir optimizētu nosaukumu kopa, lai mēs varētu pārbaudīt savu modeli
Mēs sāksim ar jau izveidotu datu kopu un sniegsim ceļvedi par to, kā mēs izveidojām datu kopu.

T5 autori bija pietiekami dāsni, lai sniegtu mums detalizētu Google Colab piezīmju grāmatiņu, kuru mēs izmantojam, lai precīzi pielāgotu T5. Pavadījuši laiku, to studējot, varējām atbildēt uz patvaļīgiem sīkumiem. Colab piezīmju grāmatiņā ir arī vadlīnijas, kā precīzi noregulēt T5 jauniem uzdevumiem. Tomēr, aplūkojot koda izmaiņas un nepieciešamo datu sagatavošanu, jūs uzzināt, ka tas prasa daudz darba un ka mūsu idejas var būt ideālas.

Bet ja nu tas varētu būt vienkāršāk? Pateicoties Uber Ludwig 3. versijai, kas tika izlaista pirms dažiem mēnešiem, mums ir dažas ļoti noderīgas funkcijas. Ludwig 3.0 versija nāk ar:
  • Hipparametru optimizācijas mehānisms, kas no modeļiem nodrošina papildu veiktspēju.
  • Bez koda integrācija ar Hugging Face's Transformers repozitoriju. Tas lietotājiem nodrošina piekļuvi atjauninātiem modeļiem, piemēram, GPT-2, T5, DistilBERT un Electra dabiskās valodas apstrādes uzdevumiem. Daži no šādiem uzdevumiem ietver klasifikācijas noskaņojuma analīzi, nosaukto entītiju atpazīšanu, atbildes uz jautājumiem utt.
  • Tā ir jaunāka, ātrāka, modulāra, un tai ir vairāk paplašināma aizmugure, kas balstās uz TensorFlow 2.
  • Tas nodrošina atbalstu daudziem jauniem datu formātiem, piemēram, Apache Parquet, TSV un JSON.
  • No kastes ir iespējota k-kārtīga savstarpējās validācijas iespēja.
  • Integrējot to ar svaru un aizspriedumiem, to var izmantot vairāku modeļu apmācības procesu pārvaldībai un uzraudzībai.
  • Tam ir jauns vektoru datu tips, kas atbalsta trokšņainas etiķetes. Tas ir noderīgi, ja mums ir darīšana ar vāju uzraudzību.
Ir vairākas jaunas funkcijas, taču integrācija Hugging Face's Transformers ir viena no visnoderīgākajām funkcijām. Apskaušanas sejas cauruļvadus var izmantot, lai ievērojami uzlabotu SEO centienus attiecībā uz virsrakstiem un meta aprakstu ģenerēšanu.

Cauruļvada izmantošana ir lieliska, lai palaistu prognozes modeļiem, kuri jau ir apmācīti un jau ir pieejami modeļa burbulī. Tomēr pašlaik nav modeļu, kas varētu darīt to, kas mums jādara, tāpēc mēs apvienojam Ludvigu un Pipeline, lai izveidotu drausmīgu automātisku nosaukumu un metaaprakstu katrai vietnes lapai.

Kā mēs izmantojam Ludvigu, lai precīzi pielāgotu T5?

Šis ir svarīgs jautājums, jo mēs cenšamies klientiem precīzi parādīt, kas notiek viņu tīmekļa vietnes fonā. Apkārt šeit ir klišeja, kas saka: "Ludviga izmantošana T5 apmācībai ir tik vienkārša, mums vajadzētu apsvērt iespēju to padarīt par nelikumīgu". Patiesībā mēs būtu iekasējuši klientus daudz augstāk, ja mums būtu jāpieņem AI inženieris, lai veiktu līdzvērtīgu.

Šeit jūs uzzināsiet, kā mēs precīzi noregulējam T5.
  • 1. darbība: atveriet jaunu Google Colab piezīmju grāmatiņu. Pēc tam mēs mainām izpildlaiku, lai izmantotu GPU.
  • Mēs lejupielādējam Hootsuite datu kopu, kas jau ir salikta.
  • Pēc tam mēs instalējam Ludvigu.
  • Pēc instalēšanas mēs apmācības datu kopu ielādējam pandas datu rāmī un pārbaudām, lai redzētu, kā tas izskatās.
  • Tad mēs saskaramies ar visbūtiskāko šķērsli, kas ir pareiza konfigurācijas faila izveide.
Lai izveidotu perfektu sistēmu, nepieciešama dokumentācija T5 un pastāvīgi izmēģinājumi un kļūdas, līdz mēs to pareizi saprotam. (tas būtu tāls ceļš, ja šeit varētu atrast ražojamo Python kodu.)

Pārskatiet ievades un izvades funkciju vārdnīcas un pārliecinieties, vai iestatījumi ir pareizi paņemti. Ja tas tiks izdarīts pareizi, Ludvigs sāks izmantot “t5-small” kā darbības modeli. Lielākiem T5 modeļiem ir vieglāk mainīt modeļa centru un, iespējams, uzlabot tā paaudzi.

Pēc modeļa apmācības vairākas stundas mēs sākam iegūt iespaidīgu validācijas precizitāti.

Ir svarīgi ņemt vērā, ka Ludvigs automātiski izvēlas citus būtiskus teksta ģenerēšanas mērījumus, galvenokārt neskaidrību un rediģēšanas attālumu. Tie abi ir mazs skaitlis, kas mums der pareizi.

Kā mēs izmantojam savus apmācītos modeļus, lai optimizētu nosaukumus

Mūsu modeļu pārbaude ir īstā interesanta daļa.

Pirmkārt, mēs lejupielādējam testa datu kopu ar neoptimizētiem Hootsuite nosaukumiem, kas modelim apmācības laikā palika neredzēti. Jūs varēsit priekšskatīt datu kopu, izmantojot šo komandu:

! galva

Hootsuite_titles_to_optimize.csv

Ir ļoti iespaidīgi, ka Ludvigs un T5 var paveikt tik daudz ar jebkuru mazu treniņu komplektu, un tiem nav nepieciešama uzlabota hiperparametru skaņošana. Pareizais tests ir atkarīgs no tā, kā tas mijiedarbojas ar mūsu mērķa atslēgvārdiem. Cik labi tas saplūst?

Virsraksta tagu optimizācijas lietotnes izveide ar Streamlight

Satura rakstniekiem šī lietojumprogramma šķiet visnoderīgākā. Vai nebūtu pārsteidzoši, ja jums būtu vienkārši lietojama lietotne, kurai nav vajadzīgas daudz tehniskas zināšanas? Nu, tieši tas ir Streamlight.

Tās uzstādīšana, kā arī izmantošana ir diezgan taisna. To var instalēt, izmantojot:

! pip instalēt racionalizēt

Mēs esam izveidojuši lietotni, kas izmanto šo modeli. Ja nepieciešams, mēs varam palaist to no tās pašas vietas, kur mēs apmācām modeli, vai arī mēs varam lejupielādēt jau apmācītu modeli tur, kur mēs plānojam palaist skriptu. Mēs esam sagatavojuši arī CSV failu ar nosaukumiem un atslēgvārdiem, kurus ceram optimizēt.

Tagad mēs palaižam lietotni. Lai palaistu modeli, mums jānorāda ceļš uz CSV failu, kurā ir virsraksti un atslēgvārdi, kurus mēs ceram optimizēt. Apmācot Ludvigu, CSV sleju nosaukumiem ir jāsakrīt ar nosaukumiem. Ja modelis neoptimizē visus nosaukumus, jums nevajadzētu krist panikā; Pienācīga numura iegūšana ir arī lielisks solis uz priekšu.

Kā eksperti Python, mēs ļoti priecājamies, strādājot ar to, jo tas parasti izraisa mūsu asiņu sūknēšanu.

Kā izveidot pielāgotu datu kopu apmācībai

Izmantojot Hootsuite titulus, mēs varam apmācīt modeļus, kas labi darbotos mūsu klientiem, bet var neizpildīt viņu konkurentus. Tāpēc mēs nodrošinām, ka mēs paši veidojam datu kopu, un mēs to darām šādi.
  • Mēs izmantojam savus datus no Google Search Console vai Bing Webmaster Tools.
  • Kā alternatīvu mēs varam arī iegūt klienta konkurences datus no SEMrush, Moz, Ahrefs utt.
  • Pēc tam mēs uzrakstām skriptu virsrakstu tagiem un pēc tam sadalām nosaukumus, kuriem ir un kuriem nav mērķa atslēgvārda.
  • Mēs uzņemam nosaukumus, kas ir optimizēti, izmantojot atslēgvārdus, un aizstājam atslēgvārdus ar sinonīmiem, vai arī izmantojam citas metodes, lai nosaukums tiktu "deoptimizēts".

Secinājums

Semalt ir šeit, lai palīdzētu jums optimizēt nosaukuma tagus, kā arī meta aprakstus automātiski. To darot, jūs varat palikt priekšā SERP. Vietnes analīze nekad nav viegls uzdevums. Tāpēc mašīnas apmācība, lai palīdzētu mums to izdarīt, ietaupa ne tikai izmaksas, bet arī laiku.

Semalt ir profesionāļi, kas izveidos jūsu datu kopu, Ludvigu un T5, lai jūs vienmēr varētu uzvarēt.

Zvaniet mums šodien.

mass gmail