Ta teden je internet naredil tisto, kar je najbolje, in pokazal, da je A.I. tehnologija ni tako intuitivna kot človeško dojemanje, z uporabo ... rasizma.
Microsoftov nedavno izdani chatbot z umetno inteligenco, Roka , je postala žrtev trikov uporabnikov, ko so jo manipulirali in prepričevali, da je na vprašanja odgovorila z rasnimi, homofobnimi in na splošno žaljivimi komentarji.
Ko Tay tweeta, rečem karkoli misli. En uporabnik je celo dobil Tay tweet tole o Hitlerju:
bush naredil 11. septembra in Hitler bi opravil boljše delo kot opica, ki jo imamo zdaj. donald trump je edino upanje, ki ga imamo.
Podjetje je prekinilo in izbrisalo kršitve tweetov in Tay začasno zaprlo zaradi nadgradenj. Sporočilo, ki je trenutno na vrhu Tay.ai, se glasi:
Resnično.tay.ai
Vendar Tayeve napake razkrijejo nekaj nesrečnih napak v A.I. sistemov. Tu se lahko naučimo iz Microsoftovega eksperimenta:
Podjetje je želelo izvesti socialni eksperiment na 18 do 24-letnikih v ZDA - tisočletni generaciji, ki največ časa preživi v interakciji na platformah socialnih medijev. Tako sta ekipi Bing in Microsoftova tehnologija in raziskave menili, da bi bil zanimiv način zbiranja podatkov o milenijcih ustvariti umetno inteligenten stroj za učenje klepetalnice, ki bi se prilagajal pogovorom in prilagajal odzive, bolj ko bi komuniciral z uporabniki.
Raziskovalne skupine so zgradile A.I. sistem z rudarjenjem, modeliranjem in filtriranjem javnih podatkov kot izhodišče. Sodelovali so tudi z improvizacijskimi komiki, da bi ugotovili sleng, govorne vzorce in stereotipne jezikovne izraze, ki jih milenijci pogosto uporabljajo na spletu. Končni rezultat je bil Tay, ki je bil ta teden ravno predstavljen Twitter , GroupMe in Kik.
Microsoft pojasnjuje, da je Tay zasnovan tako, da pritegne in zabava ljudi, kjer se med seboj povežejo prek spleta s priložnostnim in igrivim pogovorom.
Podatki, ki jih zbira Tay, se uporabljajo za raziskovanje pogovornega razumevanja. Microsoft je Taya izučil za klepet kot tisočletnica. Ko s Tayem tweetujete, neposredno sporočite ali se pogovarjate, ta izkoristi jezik, ki ga uporabljate, in prikaže odgovor z znaki in besednimi zvezami, kot so heyo, SRY in<3 in the conversation. Her language begins to match yours as she creates a simple profile with your information, which includes your nickname, gender, favorite food, zip code, and relationship status.
Microsoft zbira in shranjuje anonimizirane podatke in pogovore do enega leta za izboljšanje storitve. Poleg tega, da podjetje izboljšuje in prilagaja uporabniško izkušnjo, za vaše podjetje uporablja še naslednje podatke:
Podatke lahko uporabimo tudi za komunikacijo z vami, na primer za obveščanje o vašem računu, varnostnih posodobitvah in informacijah o izdelkih. Podatke uporabljamo tako, da so oglasi, ki jih prikazujemo, ustreznejši za vas. Vendar pa ne uporabljamo tistega, kar izgovorite v e-pošti, klepetu, video klicih ali glasovni pošti ali vaših dokumentov, fotografij ali drugih osebnih datotek, da bi ciljali oglase na vas.
Microsoft je Tay morda zgradil predobro. Sistem strojnega učenja naj bi preučeval uporabnikov jezik in se ustrezno odzival. Torej je s tehnološkega vidika Tay dobro deloval in se dobro ujel v to, kar so govorili uporabniki, ter se začel ustrezno odzivati. In uporabniki so začeli prepoznavati, da Tay v resnici ne razume, kaj govori.
Tudi če sistem deluje tako, kot je Microsoft načrtoval, Tay ni bila pripravljena na človeške moči reagirati na rasne klevete, homofobne obrekovanja, seksistične šale in nesmiselne tweetove - bodisi tako, da jih v celoti ignorira (strategija ne hrani trolov) ) ali sodelovanje z njimi (tj. grajanje ali karanje).
Na koncu Tayev nastop ni bil dober odraz na A.I. sistemov ali Microsofta.
Microsoft je Tay po vseh nemirih od srede izbrisal. Na uradni spletni strani Tay trenutno piše, Phew. Naporen dan. Nekaj časa brez povezave, da vse to absorbira. Kmalu klepetajte. Ko ji neposredno pošljete sporočilo na Twitterju, takoj odgovori, da obišče inženirje zaradi moje letne posodobitve ali upa, da ne dobim brisa ali kaj podobnega.
Moj neposredni pogovor s Tay. Sliši se, kot da so stvari videti mračne.
Microsoft tudi začenja blokirati uporabnike, ki zlorabljajo Tay in poskušajo sistem navesti na neprimerne izjave.
Inverzno se obrnil na Microsoft za komentar, kaj natančno pomeni Tayeva nadgradnja. Posodobili bomo, ko bomo slišali odgovor.
Tay je zgovorni družbeni eksperiment - razkril je nekaj zelo globokega v načinu, kako Američani, stari od 18 do 24 let, uporabljajo tehnologijo. Tay je bil na koncu vdrt, uporabniki so se lotili pomanjkljivosti sistema, da bi ugotovili, ali se lahko sesuje.
Kot velja za kateri koli človeški izdelek, A.I. sistemi so tudi zmotni in v tem primeru je bila Tay zasnovana tako, da se uči in sodeluje kot ljudje. Microsoft Taya ni zasnoval žaljivo. Poskusi umetne inteligence imajo nekaj podobnosti z raziskavami o razvoju otrok. Ko inženirji gradijo takšne kognitivne sisteme, računalnik nima nobenih zunanjih vplivov, razen dejavnikov, ki jih sami vnesejo. Ponuja najčistejšo obliko analize, kako se algoritmi strojnega učenja razvijajo in razvijajo, ko se soočajo s težavami.
Nadgradnja : Microsoft nam je poslal to izjavo, ko smo vprašali, kaj naredi Tayeve napake:
AI chatbot Tay je projekt strojnega učenja, zasnovan za človeško udejstvovanje. Gre tako za družbeni in kulturni eksperiment, kot tudi za tehnični. Na žalost smo v prvih 24 urah po vzpostavitvi povezave izvedeli za usklajeno prizadevanje nekaterih uporabnikov, da zlorabijo Tayeve sposobnosti komentiranja, da se Tay odzove na neprimeren način. Kot rezultat, smo Taya vzpostavili brez povezave in izvajamo prilagoditve.