Sisällön moderointi vuonna 2019: Ihminen vs. AI

Internet kaikilla positiivisilla ominaisuuksilla voi olla hyvin tumma ja häiritsevä paikka. Nimettömyyskilpi helpottaa ihmisten käyttäytymistä tietyllä tavalla, jota muuten yhteiskunta huijaa. Tässä artikkelissa tarkastellaan loukkaavan sisällön nykyaikaistamista ja se auttaa sinua tekemään tietoisempaa päätöstä.

On vuosi 2019, ja lähetämme ja kulutamme sisältöä nopeammin kuin koskaan ennen. Pelkästään vuonna 2017 otettiin 1,2 biljoonaa kuvaa ja miljardeja niistä jaettiin verkossa - keskimäärin ~ 200 kuvaa henkilöä kohden vuodessa (olettaen, että maailman väkiluku on 7 miljardia). Itse Facebookissa on huikeat 300 miljoonan valokuvan lataukset päivittäin, ja 7500 moderaattoriarmeija pyrkii valvomaan tätä sisältöä.

Lähde: BusinessInsider

Porno on kaikkialla

Tällaisen valtavan piikin myötä on myös noussut nopeasti ihmisten, jotka lataavat kyseenalaista luonnetta sisältävää sisältöä, ja rehellisesti sanottuna pyrimme hallitsemaan sitä. Suurimmat sosiaaliset verkostot huolimatta siitä, mitä luulet, ovat NSFW-sisällön, kuten porno, täynnä. Se on kissan ja hiiren peli, jossa tällainen sisältö suodatetaan ja käyttäjät / hashtagit / ryhmät kielletään, mutta ne tulevat takaisin vain älykkäämmin ja kovemmin kiinni. Tässä on kuvakaappaus artikkelista, jossa puhutaan epäselvistä arabialaisista hashtageista, joita käytetään jakaa pornoa Instagramissa.

Lähde: Daily Express

Koska suurin osa sisällönkulutuksestamme siirtyy matkapuhelimiin, Apple (App Store) ja Google (Play Store) ovat portinpitäjiä tarkastelemaamme sisältöön.

Kuulimme kaikki äskettäisen kysymyksen, jonka mukaan Apple poisti Tumblrin sovelluksen App Storesta lapsipornografian löytämisen jälkeen, mutta se on vain yksi tällainen esimerkki alustasta, joka kamppailee sisällön hillitsemistä ja saa rangaistuksia.

Lähde: The Verge

Tumblr saattaa silti selviytyä ja kulkea oikein; mutta monet sovellukset ovat epäonnistuneet sen jälkeen, kun sen käyttäjät lähtivät laumoihin, kun siitä tuli pornoa ja muuta loukkaavaa sisältöä, jota järjestelmänvalvojat eivät pystyneet hallitsemaan.

Miksi sinun pitäisi olla huolissasi? Jos olet sovelluksen omistaja, joka työskentelee käyttäjän luoman sisällön tai UGC: n kanssa, kuten kansan tunnetaan, olet alttiina monille riskeille, kuten maineellisille, taloudellisille tai jopa suurille juridisille riskeille. (katso: Intia heittää Ebayn päällikön vankilaan)

Mutta ymmärrämme ensin, mitä pidetään ”loukkaavana” voidaksesi säätää sitä paremmin, koska se ei ole niin yksinkertainen kuin luulet saavani olevan.

Määritelmä ”loukkaavalle” sisällölle (?)

Globaali tilanne

Vasen: Shakiran Oral Fixation alkuperäinen kansi; Oikea: Sama kansi Lähi-idässä

Toiminta globaalisti ja sisällön standardien asettaminen on hankalaa. Useimmat yritykset yrittävät asettaa samat säännöt käyttäjille, jotka tulevat eri väestöryhmistä ja kulttuurin herkkyydet vaihtelevat. Ja siellä he epäonnistuvat.

Maailmanlaajuisesti laajenevat yritykset joutuvat usein vaikeuksiin paikallisen hallinnon kanssa, elleivät he ole ottaneet huomioon paikallista kulttuuriaan. Heinäkuussa 2018 Indonesian hallitus kielsi TikTokin, suositun lyhyemusiikkivideoiden valmistussovelluksen. Tässä on katkelma sanomalehden artikkelista aiheesta:

Ministeriö kielsi sovelluksen, koska se sisältää kielteisiä videoita, joiden katsotaan olevan kielteinen vaikutus nuoriin .... Indonesian julkinen suhtautuminen kääntyy Tik Tokia vastaan, joka on suosittu 13-15-vuotiaiden keskuudessa, koska se hänellä on leikkeitä teini-ikäistä, jotka osallistuvat provosoivaan käyttäytymiseen. Yksi tällainen video kuvaa teini-ikäistä tanssimasta. Sitten se leikataan kuolleeksi ruumiiksi, ilmeisesti teini-ikäinen sukulainen.

Alastomuksen / pornoa lukuun ottamatta on olemassa alueellisia sääntöjä, jotka koskevat:

  • uskonnollinen vihapuhe, joka yllyttää väkivaltaan
  • vääriä uutisia ja levitystä poliittiselle asialistalle
  • loukkaava kieli yksilöä / organisaatiota vastaan

Luettelo voi jatkua perustuen alueeseen, jossa pääasiassa toimit, ja kyseisessä maantieteessä esiintyviin sananvapauden standardeihin

Tässä on ote Orkutin - kerran suositun sosiaalisen verkoston - Wikipedia-sivulta:

Vuonna 2008 Google ilmoitti Orkutin johtavan ja toimivan täysin Brasiliassa, Google Brasilian, Belo Horizonten kaupungissa. Tämä päätettiin Brasilian suuren käyttäjäkunnan ja juridisten kysymysten kasvun vuoksi

Ota huomioon, että yhdysvaltalaisen sosiaalisen verkoston koko toiminta siirrettiin toiseen maahan paremmin noudattaa sen paikallisia lakeja.

Mikä on alastomuutta / pornoa

Jopa perusmääritelmä siitä, mikä on alastomuutta tai pornoa, on erittäin subjektiivinen ja mielivaltainen kuin yhteiskunnan säännöt. Mieti Instagramia, joka sallii “urosnännit”, mutta kieltää “naisnännit”.

Jotkut sallivat alastomuuden osoittamisen tietyissä erityistapauksissa.

Harkitse Tumblria, joka päivitti äskettäin sen sisältösääntöjä kiinnostavilla poikkeuksilla:

Kielletty sisältö sisältää valokuvia, videoita ja GIF-tiedostoja ihmisen sukupuolielimistä, naisia ​​esitteleviä nännejä ja mitä tahansa sukupuoleen liittyvää mediaa, mukaan lukien kuvat. Poikkeuksia ovat alastomat klassiset patsaat ja alastomuutta kuvaavat poliittiset mielenosoitukset. Uusissa ohjeissa teksti suljetaan pois, joten eroottinen toiminta on edelleen sallittua. Alastomuutta kuvaavat piirrokset ja taide ovat edelleen kunnossa - niin kauan kuin sukupuolen tekoja ei ole kuvattu - samoin kuin imetys ja synnytyksen jälkeen valokuvat

Katsotaanpa muiden tärkeimpien sosiaalisten verkostojen sisältöohjeet:

Toivon, että olen puhunut siitä, että sisältöstandardien luominen on todella hankalaa niiden subjektiivisen luonteen vuoksi.

Oletetaan siis, että olet luonut laajan ensimmäisen sääntöjoukon, joka toimii sovelluksellesi. Seuraava askel on joko palkata ihmisen moderaattoreita, luottaa yhteisöön "ilmoittaa" tällaisesta sisällöstä tai käyttää AI: ta niiden havaitsemiseksi tai tyypillisesti kaikkien 3 yhdistelmää.

Ihmisen moderaattorien käyttäminen

Tärkeimmät kysymykset, joihin sinun on vastattava, kun palkkaat ihmistä moderaattoreina, ovat:

Paljonko se maksaa? Mikä on läpäisy- ja vasteaika? Kuinka he yleensä arvioivat videota? Miltä virtaus näyttää? Kuinka määrität selkeät standardit subjektiivisuuden vähentämiseksi etenkin reunatapauksissa?

Menimme eteenpäin ja tavoitimme 7 moderaattorin ulkoistustoimistoa ja saimme 4: ltä takaisin epämääräisiä vastauksia. Ne ovat tyypillisesti BPO: ita, jotka on aseistettu satojen tietojen syöttöurakoitsijoiden kanssa ja jotka perustuvat matalapalkkaiseen kehittyvään talouteen. Löydät heidän vastauksensa täältä.

Taskus
Scale.ai
Webpurify
Foiwe
Olapic
Assivo
UGC-moderaattorit
  1. Kustannus :

Saaneet hintavastaukset.

UGC-moderaattorit on halvin vaihtoehto kolmesta kuvasta, joka maksaa 0,01 dollaria / kuva.

2. Kierrätysaika: Verkkopuhdistuksessa mainitaan läpimenoaika <2 min. Kaikki muut ovat siitä avoimia. Kun käsitellään suuria määriä, palvelun on ylläpidettävä suurta moderaattoreiden työvoimaa toimimaan melkein reaaliajassa, mikä on välttämätöntä joillekin.

3. Videot: Webpurify mainitsee myös videoiden tekemisen 0,15 dollarilla minuutissa.

Toinen tarjoaja, UGC-moderaattorit, on hintaan 2 dollaria / tunti. Oletetaan, että he voivat tarkistaa 5 1 minuutin videota minuutissa, eli ~ 0,07 dollaria / minuutti videota

Harkitse tätä Youtubessa, jossa 400 tuntia videota ladataan minuutissa. = 2400 minuuttia videota minuutissa.
Kerro se minuutteilla kokonaismäärällä vuodessa (60 x 24 x 365) ja tämä on uskomaton kustannus, joka on ~ 1,2 miljardia dollaria vuodessa!
Jopa 50%: n alennuksen, ~ 600 miljoonaa dollaria, laskeminen.

Subjektiivinen luonne päättää, minkä sisällön sallitaan pysyä, tekee tärkeänä tietyn määrän ihmisten moderaattoreita. Mutta kuten huomaat, ne voivat muuttua erittäin kalliiksi erittäin nopeasti.

Trauma

Tärkeää on lisätä, että työ on hyvin häiritsevää ja voi aiheuttaa vammoja henkilöille, jotka tekevät sitä päivä päivältä. Entinen sisällön moderaattori haastoi Facebookin väittäen, että väkivaltaiset kuvat aiheuttivat hänelle PTSD: n. Upea dokumenttielokuva, jonka otsikko on ”Valvojat” ja joka kuvaa näiden henkilöiden elämää:

Jopa Facebook kaikilla sen rautapintaisilla järjestelyillä on edelleen alttiina oikeudellisten menettelyjen riskille "epäinhimillisten" työtapojen vuoksi. Ote samasta New York Times -artikkelista:

"Menisit töihin joka aamu klo 9, kytke tietokoneesi päälle ja katsot, että joku pää katkaistaan", mies, joka päätti pysyä nimettömänä, mutta jota lainattiin oikeudenkäynnissä, kertoi The Guardianille viime vuonna. ”Joka päivä, joka minuutti, se on mitä näet. Päät katkaistaan. ”

Se on kovaa työtä.

tarkkuus

Selkeiden ohjeiden laatimisesta huolimatta ihmisen moderaattorit voivat silti olla alttiita virheille, koska heidän odotetaan toimivan nopeasti voidakseen käsitellä suurta määrää ja täyttämään määritellyn SLA: n. Intiassa puhuneemme viraston moderaattorin odotetaan maltiilevan 10–15

He kamppailevat etenkin reunatapauksissa ja lopulta tekevät paljon vääriä positiivisia, eli kutsuvat jotain pornoa, jota ei ole. Tämä voi lopulta estää sananvapautta, jota jotkut näistä alustoista edustavat ja käyttäjät voivat kapinaa kaksoisstandardien takia.

Lähde: Mic

Yhteenvetona voidaan todeta, että ihmisen moderaattorit ovat:

  • Sisällön subjektiivisesta luonteesta johtuen tällä hetkellä vältettävissä
  • Kalliita, varsinkin kun mitoitat
  • Taipumus traumaan
  • Alttiita virheille, varsinkin kun volyymit ovat suuret ja reunakotelot

Joten on todella tärkeää seurata, jos moderaattorisi suorittavat tyydyttävästi.

Mitat moderoijan suorituskyvyn seuraamiseksi

Nämä ovat mittareita, joita sinun on yleensä seurattava nähdäksesi, kuinka yksittäiset moderaattorit suorittavat, vaikka voit ottaa käyttöön erilaisia ​​mittareita yrityksesi tarpeiden perusteella. Mittarit ovat saaneet inspiraatiota tekoälystä ja stressistä kahdesta asiasta, jotka voivat vahingoittaa eniten:

Väärät positiiviset

Soittaminen jollekin pornoksi, joka ei ole pornoa

Väärät negatiiviset

Soittaminen jotain ”ei pornoa”, mutta on pornoa (sattuu eniten!)

tarkkuus

Oikein tunnistettujen kuvien lukumäärä (porno on porno, turvallinen on turvallinen). Enemmän terveystietoja, jotka sinun on seurattava varmistaaksesi, että olet oikealla tiellä.

Tarkkuus

Tunnistettujen pornokuvien lukumäärä, jotka todella ovat pornoa. Mitä korkeampi, sitä parempi.

Jos sinulla on yritystä, jolla sanan / ilmaisun vapaus on kriittistä (esimerkiksi Reddit), sinun on varmistettava, että moderaattorit eivät merkitse kuvaa, jota säännöt noudattavat, "ei turvallista". Tärkein mittarisi on sitten tarkkuus.

Palauttaa mieleen

Kuinka monta he havaitsivat pornokuvien kokonaismäärästä. Mitä korkeampi, sitä parempi.

Jos sinulla on yritystä, jonka sinun on palveltava yleisöäsi, tervettä perhettä, joka tarkastelee sopivaa sisältöä, sinun on varmistettava, että kaikki kuvat, jotka eivät noudata sääntöjä, eivät lähetä suodattimia. Tärkein tietosi on sitten Recall.

F-1-pistemäärä

Terveellisempi tieto, joka sisältää sekä tarkkuuden että muistamisen. Mitä korkeampi, sitä parempi.

Jos joudut olemaan keskiviivalla sekä sananvapauden estämisen että tiukkojen sääntöjen noudattamisen välillä, F1-pistemäärä on sinun mittarisi seurata.

Voit laskea ne seuraavasti:

Tässä on vuokaavio, joka auttaa sinua ymmärtämään terminologiaa paremmin:

Tarkastelemalla satunnaista% -näytettä kunkin moderaattorin päivittäisestä työstä ja asettamalla vertailuarvoja, voit seurata heidän suorituskykyään.

Olemme myös huomanneet, että hylätyn viestin alakategorian (Gore, Suggestive Alastity, Explicit Audity, Drugs jne.) Merkitseminen ja metrien seuranta näissä luokissa on paljon oivaltavampi tulevien koulutusohjelmien suunnittelussa.

Keinotekoisen älykkyyden käyttö

Markkinoilla on useita kaupallisia sovellusliittymiä, jotka havaitsevat NSFW-sisällön.

Käyttämällä syviä hermoverkkoja, nämä sovellusliittymät tarjoavat koneoppimisen palveluna maltilliseen sisältöön käyttäjäympäristössä, joka havaitsee pääasiassa alastomuuden, pornografian (seksuaaliset teot) ja aukot. Keskeiset kysymykset, joihin on vastattava valittaessa sovellusliittymää, ovat:

Paljonko se maksaa? Mikä on vastausaika? Millaisia ​​mittareita käytät arvioidaksesi niiden suorituskykyä? Mikä on asennus- ja integrointiaika?

Verrattiin seuraavia sovellusliittymiä:

Amazon
Clarifai
DeepAI
Google
Microsoft
Nudedetect
Nanonets
Picpurify
Sightengine

Kustannus

Kuinka paljon ne maksavat kuvaa kohti:

Nanonets-hinta on alin 0,0009 dollaria / kuva, seuraavana ovat Amazon & Microsoft 0,00 dollaria / kuva.

Piirretään tätä:

Hinnoittelu sovellusliittymää kohti

Kuvan keskimääräinen hinnoittelu tulee ulos ~ 0,001 dollaria

Vertaamalla tätä halvimpaan hintaan, joka on ihmisten moderaattoreita, joka on 0,01 dollaria. Ihmisten moderaattorit ovat 10-kertaiset AI-sovellusliittymien tarjoajille! Visualisointi sen kuvaajan avulla:

metrics

Arvioitavat muuttujat ovat samat kuin ihmisen moderaattorit: Tarkkuus, Tarkkuus, Palauta ja F1. Siellä on hieno artikkeli, joka vertailee parhaita NSFW-kuvankäsittelyliittymiä vuodesta 2018 alkaen näillä mittareilla.

Asennus ja integrointi

Suurin osa näistä sovellusliittymistä on verkkoisäntä ja helppo integroida.

Heillä on tyypillisesti muutama rivi koodeja, jotka sinun on integroitava ja lähetettävä kuvan URL-osoite tai tavut (raakatiedosto).

Nanonets tarjoaa lisäetu generoimalla telakointikuva mallillesi ja isännöimällä sitä palvelimellasi.

sudo nvidia-docker run -p 8081: 8080 docker.nanonets.com/{{model_id}}:gpu

Näyterivi koodattavaksi mallin suorittamiseksi telakointiasennossa.

Vasteaika

Useimmat sovellusliittymät lupaavat vastausajan 200–300 sataa millisekuntia. Tämä ei kuitenkaan sisällä palvelimen välistä matka-aikaa, ja se voi myös vaihdella lähettämäsi kuvan koosta riippuen. Joten sinun kannattaa todennäköisesti haluaa, että palveluntarjoajallasi on palvelin alueellasi nopeaa vastausaikaa varten tai käyttää vain Nanonetsin satamapalvelua ja ottaa se käyttöön paikan päällä.

Vertaa tätä Webpurify's Human Moderation -palveluun, joka lupaa vastausajan <2 minuuttia. Se on 10-kertainen vasteaika verrattuna sovellusliittymiin!

Yhteenvetona tästä hyvin, koneoppukseen perustuvat sovellusliittymät ihmisen moderaattoreihin verrattuna ovat:

  • halvempi
  • nopeampi
  • Helppo skaalata
  • Koneet eivät kohtaa traumaa (!)

Joten kaiken kaikkiaan, koneet sopivat ehdottomasti paljon paremmin työhön kuin ihmiset.

Joten miksi tarvitsemme edelleen ihmisen moderaattoreita?

No, vastaus tähän on, että koneet eivät edelleenkään sovellu hyvin subjektiivisuuden käsittelemiseen ja että ne ovat helposti huijattavissa.

  1. Rodun puolueellisuus

Mieti seuraavaa kuvaa:

Voit nähdä alkuperäisen kuvan täältä. VAROITUS: Se on selkeä

Yritimme yllä olevaa kuvaa kahdella yllä mainituista palveluista:

Clarifai

Clarifai luokitteli sen väärin SFW: ksi 91% luottavuudella

Picpurify

Puhdista puhdistaminen luokittelemalla se väärin SFW: ksi

Joten mitä täällä tapahtui? Naisen vaatteiden kuviot ja läpinäkyvä luonne sekoittivat hermoverkot ja he eivät pystyneet luokittelemaan kuvaa NSFW: ksi tai antamaan täysin erilaisen ennusteen.

Alasti japanilaisten naisten koulutustietojen puute perinteisessä kimonossa voi luoda tällaisen harharajoituksen näille sovellusliittymille, jotka perustuvat pääosin Yhdysvaltoihin ja Eurooppaan ja kouluttavat verkostojaan enimmäkseen mielenkiinnon kohteena olevien alueiden henkilöiden kuviin. Joten syytä, jos sinulla on käyttäjiä näiden alueiden lisäksi ja lataat paikallista pornoa (tai muuta loukkaavaa sisältöä), suurin osa käyttövalmiista sovellusliittymistä ei ehkä ole täällä liikaa.

2. Yhteiskunnallinen konteksti

Kuten yllä on tutkittu, mikä on kunnossa yhdellä alueella, voidaan pilkata toisella. Koska suurin osa AI-sovellusliittymien tarjoajista sijaitsee länsiosista, ne eivät yleensä ole virittyneinä konservatiivisempiin maailman osiin. Joten kysymys siitä, mikä on NSFW, on erityisen spesifinen sinulle, käyttäjän väestöryhmälle ja alueille, joissa toimit. Käytönvalmis sovellusliittymä ei selvästikään ole vastaus, ja tästä syystä tarvitaan moderaattoreita.

Ariana Granden kansikuvien valokuvaus on järjestetty noudattamaan vaatimattomia lakeja Iranissa ja Saudi-Arabiassa (lähde: Petapixel)

3. Yksi koko ei sovi kaikille

Useimmat sovellusliittymätoimittajat antavat pistemäärän kuvan hyväksyttävyydestä tai voivat lisäksi merkitä sen ennalta päätettyjen metakoodejensa mukaan. Amazon merkitsee sen kuvat seuraavasti:

Nyt sinulla saattaa olla joitain omia tageja, jotka voit luoda luomienne perusteella, jotka kuuluvat näiden luokkien väliin. Sinulla ei ole vaihtoehtoa tehdä niin. Tunnisteiden merkitseminen (joka on suosituksen selkäranka) on nykyään useimpien sosiaalisten UGC-sovellusten leipä ja voi, ja jos käytät jotain käyttövalmiista sovellusliittymästä, olet kiinni ennalta määritettyihin tunnisteisiin.

Kuinka vähentää riippuvuutta ihmisen moderaattoreista

Jatka ihmisten riippuvuuden vähentämistä on mallien jatkuva kouluttaminen puuttuvien aukkojen tunnistamiseksi. Uudelleenkoulutus tarkoittaa käytännössä erityisen NSFW-tietojoukon lisäämistä ja sen kouluttamista olemassa olevan mallin päälle. Tällä tavoin malli pystyy paremmin tunnistamaan asiat, jotka se oli aiemmin huomannut.

Joten sano esimerkiksi, että alustallasi on kuvia, jotka ovat luonteeltaan antisemitismiä, ja haluat kieltää ne vihattoman ympäristön varmistamiseksi. Valitsemasi sovellusliittymän tarjoaja ei suodata tällä hetkellä sellaisia ​​kuvia, ja haluat luoda tietojoukon näistä antisemitismistä kuvista, jotka noudattavat tyypillistä mallia. Voit luoda näistä kuvista tietojoukon ja harjoittaa uudelleen olemassa olevan mallin päälle, jotta se voi alkaa luokitella niitä vaarallisiksi.

Mutta useimmat API-palveluntarjoajat eivät anna sinun tehdä sitä tai se sisältyy heidän ”Enterprise” -tasoon.

Kirjoita Nanonets

Me Nanonetsissa ymmärrämme tämän ongelman ja olemme lisänneet ominaisuuden lisätä omia kuviasi ja määritellä ylimääräiset tunnisteemme sisällönvalvontamallimme päälle, jotta voit parantaa yleistä tarkkuutta sinulle.

Paranna verkkosivustolla app.nanonets.com ylläpitämämme mallimme tarkkuutta sinulle

Käyttämällä siirto-opiskelua, koulutamme mallin, joka oppii tietosi ja mukautuu tarpeisiisi.

Tapaustutkimus: Intian suurin sosiaalinen verkosto

Ongelma

Meillä oli Intian suurin paikallinen sosiaalinen verkosto, jolla on yli 50 miljoonaa kuukausittain aktiivista käyttäjää. Meillä on erityinen ongelma. Heidän valitun sovellusliittymän tarjoaja teki virheitä lähettäessään intialaisia ​​kuvia. Edellisen palveluntarjoajan tarkkuus oli ~ 72% sellaisissa kuvissa.

Miksi heidän nykyinen ratkaisu ei toiminut?

ML-malli on vain niin hyvä kuin tiedot, joille se altistuu. Suurin osa nykyisistä saatavissa olevista moderointimalleista on koulutettu yleisen datan suhteen. He eivät siis pysty ennustamaan käyttäjän tuottamaa sisältöä, joka on tuotettu paikallisesti käyttämällä heikkolaatuisia kameroita budjettipuhelimissa Intian maaseudulla.

Nämä kuvat ovat sisällöltään, ihonväriltään, kameraltaan jne. Hyvin erilaisia ​​kuin julkisesti saatavilla olevat kuvat, jotka löytyisit valitsemastasi hakukoneesta tai muusta julkisesti saatavilla olevasta aineistosta.

Ratkaisu:

Kysyimme yritykseltä heidän vaadittavat herkkyystasot heidän käyttämiensä demografisten ryhmien osalta ja noin 10 000 kuvaa - sekä positiivisia että negatiivisia näytteitä.

Käytimme näitä tietoja uuden mallin kouluttamiseen olemassa olevan mallimme päälle. Tämän ansiosta voimme hienosäätää herkkyyttä ja altistaa mallin heidän alustalleen ominaiseen sisältöön.

tulokset:

Meillä oli nyt malli, jonka tarkkuus parani yli 23% ja hyppäsi ~ 95%: iin! Koko harjoituksen loppuvaiheesta ongelmalausunnon määrittelystä tietojen jakamiseen ja lopulta mallin toimittamiseen kesti <1 kuukausi.

tarkkuus parani yli 23% ja nousi ~ 95%: iin!

Mahdollisuus virittää mallejamme erityisiin demografisiin ja NSFW-määritelmiin antaa sen olla paljon tehokkaampi ja taitava käsittelemään tätä ongelmaa.