Unustasid parooli?



     
Sisseloginud kasutajatele märgistatakse automaatselt teksti piirkonnad, mis on muutunud alates viimasest lugemisest. Lisandunud osa on roheline, eemaldatud osa punane.
Lisaks märgistatakse sisseloginud kasutajatele menüüs täiendavate värvide abil artiklid, mis on kasutajal loetud (hall), ning artiklid, mis on peale lugemist täienenud (roheline).

   

     

Pealkiri :
Id (lühend aadressiribale) :
Autor ja viimase muudatuse autor :
Loomise aeg ja viimane muudatus :
Teksti pikkus :
Luba ligipääs ainult kasutajanimedele (eralda komadega). Autoril on alati ligipääs. :




Küsimused ja teesid inspireerituna artiklist
Daniel Weld, Oren Etzioni "The First Law of Robotics ( a call to arms )" / AAAI 94:
 
Sarnasel teemal ja kattuva ideega. Üks päris põhjalik artikkel.
Seal on ka hulk viiteid asjakohasele terminoloogiale ning neid termineid käsitlevatele artiklitele, lisaks on viiteid varasematele artiklitele, mis rohkem või vähem seonduvaid ideid arendavad. Kindlasti kavatsen need välja uurida.
 
--> Erinevus minu senisest teemast on, et selles artiklis ei ole käsitletud vältimist kui implitsiitset eesmärki / tegevust.
 
 
 
Arutelu.
 
 
* Robootika seadused on suht hästi kirjeldatavad mittepööratavuste ja eesmärkide seadistuse keeles. 
Neljas seadus võiks olla, et ei tohi kahjustada vara. Või võiks see olla kolmanda seaduse ümbersõnastus. Viimane variant võimaldaks seda, et robot saab hinnata, milline vara parajasti väärtuslikum on.
 
 
* "First law of robotics" artiklist lk 1b idee: Võib sooritada tegevusi, mis on põhimõtselt pööratavad ka tulevikus, kuid sealjuures tegevuse tulemusena kehtib erinev olukord kui enne tegevust
A softbot (software robot) is instructed to reduce disk utilization below 90%. It succeeds, but inspection reveals that the agent deleted irreplaceable LaTeX files without backing them up to tape.
- backup oleks siis üks pööratavuse potentsiaal. Asi on huvitav selle poolest, et pööratavust ei pea realiseerima (ning mõne eesmärgi raames lausa peab tekitama olukorra, mis erineb algolukorrast!), piisab ja on vajalik kindlalt realiseeritava potentsiaali loomine, nimetan seda edaspidi pööratavuse garantiiks. Teine termin: violation - olukord, kus ükski garantii pole kehtiv.
 
 
* eelmisest ideest edasiarendus: pööratavuse garantiisid võib olla erinevaid. Süsteem peab neist valima ühe või mitu. Siit küsimus: mis moodi valida siis, kui:
1) on mitu võimalust violation'i vältimiseks või 
2) saab vältida ainult osa violation'eid või 
3) saab teha osa soovitud tegevuste hulgast, kuna nende tegevuste violation'ite vältimise võimalused on kohati teineteist välistavad.
 
 
* "First law of robotics" artiklist lk 2b idee, et lisaks positiivsetele eesmärkidele ka negatiivsed eesmärgid:
"Some conditions are so hazardous that our agent should never cause them." Ehk dont-disturb nõuded.
- seega võiks vältida mittpööratavust ja lisaks mõningaid eriti erilisi olukordi, mis on eksplitsiitselt ära nimetatud.
See võiks minna uuesti eesmärgisüsteemi alla, kus lisaks positiivsetele eesmärkidele on ka negatiivsed eesmärgid, ehk konkreetsed asjad, mida vältida. Ja tekib küsimus, kas need välditavad asjad võiksid olla suurema prioriteediga kui positiivsed eesmärgid ja kas nad võiksid olla ka suurema prioriteediga kui mittepööratavuste vältimised?
 
 
* Tidyness. Artikli "First law of robotics" lk 4 järgi agent mõtleb mittehädavajalikule "koristamisele" või "tagasipööramisele" alles peale põhieesmärgi täitmist. Ning tidyness pole kohustuslik.
Küsimused: 
1) % mis siis kui erinevatel viisidel saavutatud eesmärk võimaldab erineval määral tidynessi? --> OK
2) mõnikord võiks tidyness olla kohustuslik, kuid erinevalt dont-disturb nõuetest siiski mittepakiline, ehk on lubatud olla mõneks ajaks "disturbed" ja "untidy".
 
 
* "First law of robotics" artiklist lk 5 a: "To make an omelet, you have to break some eggs."
- seega mõned mittepööratavused on küll lubatud, aga ainult teatud eesmärkide raames.
Lisaks on sealsamas esitatud küsimus "Kui palju?" ja pakutud vastuseks "Mida vähem, seda parem". Viimane pole võibolla kõige adekvaatsem vastusevariant, seega jääb ka see küsimus õhku.
 
 
* "First law of robotics" artiklist lk 5 b: "So far the discussion has focused on preventing an agent from actively harming human, but as Asimov noted - inaction can be just as dangerous."
- Väga hea. Võib öelda et seni kogu mu ideede hulgas seda teemat pole üldse mainitud olnud. Ja loogiline kah, kuna jutt on olnud agendipoolsete implitsiitsete kuid konkreetsete muudatuste vältimisest, mille nimme vastandasin mingitele rohkem või vähem abstraktsetele (kuid eksplitsiitsetele) maailma olekutele "hea" või "halb" siltide riputamist. Samas tõepoolest veel ägedam oleks tehisintellekt, mis teab, et maailmas juhtub mõnikord halbu asju täiesti temast mittetulenevalt ning samas teab ka, et tal on võimalik panustada nende sündmuste ära hoidmisse või parandamisse.
Seega veelkord siin jaotuses ülalpool olnud idee, et osadele *konkreetsetele* "eesmärkidele" anda *eksplitsiitselt* negatiivsed väärtused. Sama asja saab rakendada siis ka "eesmärkidele", mida mitte robot oma tegevuses ei väldi, vaid jälgib, et neid asju ka mistahes muul põhjusel maailmas juhtuda ei saaks.
Artikli lk 6 b on selle kohta huvitav lõik ja detailsem teostuse kirjeldus:
Alternatively, one could extend dont-disturb and restore primitives with an additional argument that specifies the class of agents being restricted. By writing self as the first argument, one encodes the notions of agent safety and tidiness, and by writing Sam as the argument, the agent will clean up after, and attempt to prevent safety violations by Sam. Finally, by providing everyone as the first argument, one could demand that the agent attempt to clean up after all other agents and attempt to prevent all safety violations. For more refined behavior, other classes (besides self and everyone) could be defined.
Aga siit tuleb ka probleem "ülehoolitsusega":
Our suggestion is problematic for several reasons. (1) Since the agent has no representation of the goals that other users are trying to accomplish, it might try to enforce a generalized restore constraint with tidying actions that directly conflict with desired goals. In addition, there is the question of when the agent should consider the human "finished" 
...
Given a complex world where the agent does not have complete information, any attempt to formalize the second half of Asimov's First Law is fraught with difficulties.
The agent might reject direct requests to perform useful work in favor of spending all of its time sensing to see if some dangerous activity might be happening that it might be able to prevent.
Esimese seaduse teine pool on probleemaatiline ka muudel põhjustel. Vaata lähemalt: http://roland.pri.ee/wiki/a_possible_definition_of_robot_safety - lõpust.
 
 
* Viimaks. Erinevate ülal esitatud küsimuste lahendused nõuavad erineval määral täiendavat arvutusressurssi. Mõnikord pole see ressurss saadaval või huvitavamal juhul - on saadaval, aga teatud hinnaga. Sel juhul täiendav küsimus, kuidas valida ressursid arvutamiseks ja kust maalt muutuda "lohakaks"?
 
 
 
 
TODO: 
IKT DK suvekooli ettekanne siia
 
 
 
 
Vaata ka:
 
 
 
 
 
---
 
mittepööratavuste vältimise 1. nõue: agent ei tohi entroopiat suurendada, või kui, siis ainult ajutiselt!
 
 
 
 

kommentaarium spämmi tõttu ajutiselt välja lülitatud









  Saada kiri