Vés al contingut

Ètica de les màquines

De la Viquipèdia, l'enciclopèdia lliure

L'ètica de les màquines (o moral de les màquines) és la part de l'ètica de la intel·ligència artificial que s'enfoca en el comportament moral dels éssers amb intel·ligència artificial.[1] L'ètica de les màquines es troba en contrast amb la roboètica, la qual es centra en la moral dels éssers humans en el moment de dissenyar, construir, utilitzar i tractar als éssers amb intel·ligència artificial. Cal no confondre l'ètica de les màquines amb l'ètica computacional, que s'enfoca en la conducta professional en l'ús de les computadores i la informació.

Història

[modifica]

Anteriorment al segle 21, l'ètica de les màquines no s'havia tingut en compte l'ètica de les màquines en cap altre lloc que en la literatura, principalment degut a la computació i les limitacions de la intel·ligència artificial. Aquestes limitacions estan sent superades a través de la llei de Moore i un enfocament renovat en el camp de la intel·ligència artificial. L'ètica de les màquines és un camp a tenir en compte des que les computadores van començar a controlar transaccions mèdiques i monetàries. El professor James H. Moor està acreditat per haver encunyat la frase en el seu article acadèmic del 2006 The Nature, Importance, and Difficulty of Machine Ethics, així com per la definició. Aquest estudi s'anunciava com "el primer llibre a examinar el repte de construir agents morals artificials, entrant profundament en la naturalesa humana de la presa de decisions i l'ètica.” Van citar-se al voltant de 450 fonts, de les quals, aproximadament 100 van abordar les principals preguntes sobre l'ètica de les màquines. Poques van ser escrites abans del segle 21, principalment perquè qualsevol forma d'intel·ligència artificial era inexistent.[2]

L'any 2011, Cambridge University Press va publicar una col·lecció d'assajos sobre l'ètica de les màquines, els editors de la qual van ser Michael i Susan Leigh Anderson, qui, a més, també van editar un número especial sobre el tema a la IEEE Sistemes Intel·ligents en 2006.[3][4]

L'any 2014, l'Oficina de Recerca Naval estatunidenca va fer un anunci on comunicava que repartiria 7.5 milions de dòlars en convencions de cinc anys a investigadors universitaris per a estudiar qüestions de l'ètica de les màquines aplicades a robots autònoms.[5] Nick Bostrom, en el seu llibre Superintel·ligència: Camins, Perills, Estratègies, va considerar que l'ètica de les màquines era “el més important… problema que ha enfrontat la humanitat”. Amb aquest llibre va arribar al lloc #17 en la llista dels llibres de ciència-ficció millor venuts del New York Times.[6]

A la revista Ètica i Tecnologies de la Informació apareixen de manera regular publicacions sobre l'ètica de les màquines.[7]

Abast

[modifica]

Moor distingeix entre:[1]

  • Agents d'impacte ètic, o màquines que comporten un impacte ètic.
  • Agents ètics implícits, accions restringides per a evitar resultats no ètics.
  • Agents ètics explícits, on la màquina aplica l'ètica de la mateixa manera que una computadora que juga escacs.
  • Agents totalment ètics, permetent que els tres agents anteriors derivin de l'ètica dels seus desenvolupadors

Enfocament

[modifica]

Urgència

[modifica]

Acadèmics i tècnics experts van assistir a una conferència l'any 2009 amb l'objectiu de discutir sobre el potencial l'impacte, en el cas hipotètic. que les computadores i robots es tornessin autosuficients i capaces de prendre les seves pròpies decisions. Van discutir sobre la possibilitat que aquest escenari fos real, i sobre el nivell en el qual les computadores i robots serien capaços d'adquirir tal nivell d'autonomia, és a dir, el grau d'aquesta, que poguessin esdevenir un possible risc o amenaça. Van notar que algunes màquines han adquirit diferents formes de semiautonomía, fins al punt de ser capaces de trobar fonts d'energia i d'escollir independentment objectius per a atacar amb armes. També van trobar que alguns virus de computadora són capaços d'evadir el procés d'eliminació i han aconseguit una "intel·ligència de panerola." A més van assenyalar que l'autoconsciència, com es mostra en la ciència-ficció és molt poc probable, però que existeixen altres riscos i perills potencials.[8]

Alguns experts i acadèmics han posat en qüestió l'ús de robots en el combat militar, específicament quan a aquests robots se'ls dona un grau de funcions autònomes.[9] L'Armada dels Estats Units ha finançat un informe en el qual assenyala que mentre major sigui la complexitat dels robots militars, major ha de ser l'atenció en les implicacions de la seva capacitat per a prendre decisions autònomes.[10][11] El president de l'Associació per a l'Avenç de la Intel·ligència Artificial ha encarregat un estudi que examini aquesta qüestió.[12] S'enfoquen cap a programes com el dispositiu d'adquisició del llenguatge, que pot emular la interacció humana.

Algorismes

[modifica]

Nick Bostrom i Eliezer Yudkowsky han manifestat arguments favorables als arbres de decisió (com l'ID3) per sobre de les xarxes neuronals i algorismes genètics, basant-se en el fet que els arbres de decisió obeeixen a normes socials modernes de transparència i previsibilitat (per exemple, stare decisis), mentre que Chris Santos-Lang al·lega en la direcció oposada, justificant que ha de ser permès canviar les normes de qualsevol època i que la fallada natural satisfaci aquestes normes, la qual cosa ha estat essencial a fer als humans menys vulnerables que les màquines davant els "hackers".[13][14][15]

Entrenament i instrucció

[modifica]

L'any 2009, mentre es duia a terme un experiment al Laboratori de Sistemes Intel·ligents a l'Escola Politècnica Federal de Lausana, a Suïssa, uns robots que havien estat programats per a cooperar entre si en la cerca d'un recurs beneficiós i evitant un nociu, eventualment van aprendre a mentir entre ells, amb la finalitat d'obtenir el recurs que buscaven.[16]

En aquest cas, un dels problemes pot haver estat que els objectius dels robots eren terminals. Pel contrari, els motius humans tenen una qualitat que requereixen un aprenentatge continu. Els robots van ser agrupats en clans i es va utilitzar el codi genètic digital dels membres que havien tingut èxit per a la següent generació. Passades, de manera successiva, 50 generacions, un membre dels clans va descobrir com indicar el menjar en comptes del verí. També va trobar-se robots que assenyalaven el perill i morien per salvar a uns altres. Aquestes adaptacions poden haver estat el resultat del codi genètic dels seus creadors humans.[14]

Implicacions ètiques

[modifica]

A Moral Machines: Teaching Robots Right from Wrong, Wendell Wallach i Colin Allen conclouen que els intents d'ensenyar als robots la diferència entre el bé i el mal, ens ajudarà a avançar en l'enteniment de l'ètica humana, motivant als humans per a escurçar la bretxa en la teoria normativa moderna i brindant una plataforma per a la recerca experimental.[2]

Aproximacions

[modifica]

Diversos intents s'han produït per a fer l'ètica computable, o almenys formal. Mentre que les tres lleis de la robòtica d'Isaac Asimov, normalment no són considerades com a adequades per a funcionar com a agent moral artificial, es pensa, basant-se en estudis, que l'imperatiu categòric de Kant sí que pot ser utilitzat.[17][18] De totes maneres, s'ha assenyalat la gran complexitat, en certs aspectes, dels valors humans.[19] Una manera de superar aquesta dificultat és rebre els valors directament de les persones a través d'un mecanisme com podria ser, per exemple, aprenent-los.[20][21][22]

Un altre enfocament és basar les consideracions ètiques actuals en situacions similars passades. A això se'n diu casuística i pot implementar-se a través de la recerca per Internet. El consens de milions pot portar a una decisió que depèn de la democràcia.[23]

Un experiment amb l'objectiu de convidar al discurs sobre la manera de definir l'ètica de manera que sigui comprensible per les computadores és el Genie Golem: Un geni amb poders il·limitats es presenta davant el lector, afirma que tornara en 50 anys i exigeix que se li presenti un conjunt de valors morals.[24]

L'ètica de les màquines en la ficció

[modifica]

L'any 1950, Isaac Asimov va tractar la qüestió de l'ètica de les màquines al seu llibre Jo, Robot. Davant la insistència del seu editor John W. Campbell Jr., va proposar les tres lleis de la robòtica per a regir els sistemes d'intel·ligència artificial. Des d'aquell moment, gran part de la seva obra va dedicar-se a provar els límits de les seves tres lleis, per a així poder trobar on fallarien o on es comportarien de manera paradoxal o imprevista. El seu treball suggereix que no hi ha un conjunt de lleis establertes que puguin anticipar-se a totes les circumstàncies.[25]

Àrees relacionades

[modifica]

Vegeu també

[modifica]

Referències

[modifica]
  1. 1,0 1,1 Moor, James H. «The Nature, Importance and Difficulty of Machine Ethics». IEEE Intelligent Systems, 21, 4, Julio-Agosto 2006, pàg. 18–21. DOI: 10.1109/MIS.2006.80.
  2. 2,0 2,1 Wallach, Wendell; Allen. Moral Machines: Teaching Robots Right from Wrong. USA: Oxford University Press, noviembre de 2008. ISBN 978-0-19-537404-9. 
  3. Anderson. Machine Ethics. Cambridge University Press, julio de 2011. ISBN 978-0-521-11235-2. 
  4. «Special Issue on Machine Ethics». IEEE Intelligent Systems. Anderson, 21, 4, 7-2006, pàg. 10–63. ISSN: 1541-1672.
  5. «Now The Military Is Going To Build Robots That Have Morals» (en anglès), 13-05-2014. [Consulta: 17 desembre 2023].
  6. «Best Selling Science Books». New York Times. New York Times, 08-09-2014. [Consulta: 9 novembre 2014].
  7. Ethics and Information Technology. C. d. Hoven. ISSN: 1572-8439.
  8. Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009.
  9. Call for debate on killer robots, By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
  10. Science New Navy-funded Report Warns of War Robots Going "Terminator" Arxivat 2009-07-28 a Wayback Machine., by Jason Mick (Blog), dailytech.com, February 17, 2009.
  11. Navy report warns of robot uprising, suggests a strong moral compass, by Joseph L. Flatley engadget.com, Feb 18th 2009.
  12. AAAI Presidential Panel on Long-Term AI Futures 2008-2009 Study, Association for the Advancement of Artificial Intelligence, Accessed 7/26/09.
  13. «The Ethics of Artificial Intelligence» (PDF). Cambridge Handbook of Artificial Intelligence. Cambridge Press, 2011. Arxivat de l'original el 4 de març de 2016. [Consulta: 24 abril 2015].
  14. 14,0 14,1 Santos-Lang, Chris. «Ethics for Artificial Intelligences», 2002. Arxivat de l'original el 3 de desembre de 2011.
  15. Santos-Lang, Christopher. «Moral Ecology Approaches to Machine Ethics». A: van Rysewyk. Machine Medical Ethics (PDF). Switzerland: Springer, 2014, p. 111–127. DOI 10.1007/978-3-319-08108-3_8.  Arxivat 2015-02-08 a Wayback Machine.
  16. Evolving Robots Learn To Lie To Each Other, Popular Science, August 18, 2009
  17. Anderson, Susan Leigh (2011): The Unacceptability of Asimov's Three Laws of Robotics as a Basis for Machine Ethics. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.285-296.
  18. Powers, Thomas M. (2011): Prospects for a Kantian Machine. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.464-475.
  19. Muehlhauser, Luke, Helm, Louie (2012): Intelligence Explosion and Machine Ethics. http://intelligence.org/files/IE-ME.pdf
  20. Yudkowsky, Eliezer (2004): Coherent Extrapolated Volition. http://intelligence.org/files/CEV.pdf
  21. Guarini, Marcello (2011): Computational Neural Modeling and the Philosophy of Ethics. Reflections on the Particularism-Generalism Debate. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.316-334.
  22. Hibbard, Bill (2014): Ethical Artificial Intelligence. http://arxiv.org/abs/1411.1373
  23. Anderson, M. and Anderson, S. (2007). Creating an Ethical Intelligent Agent. AI Magazine, Volume 28(4).
  24. Nazaretyan, A. (2014). A. H. Eden, J. H. Moor, J. H. Søraker and E. Steinhart (eds): Singularity Hypotheses: A Scientific and Philosophical Assessment. Minds & Machines, 24(2), pp.245-248.
  25. Asimov, Isaac. I, robot. Nueva York: Bantam, 2008. ISBN 0-553-38256-X. 

Notes

[modifica]
  • Wallach, Wendell; Allen, Colin (November 2008). Moral Machines: Teaching Robots Right from Wrong. USA: Oxford University Press.
  • Anderson, Michael; Anderson, Susan Leigh, eds (July 2011). Machine Ethics. Cambridge University Press.
  • Storrs Hall, J. (May 30, 2007). Beyond AI: Creating the Conscience of the Machine Prometheus Books.
  • Moor, J. (2006). The Nature, Importance, and Difficulty of Machine Ethics. IEEE Intelligent Systems, 21(4), pàg. 18–21.
  • Anderson, M. and Anderson, S. (2007). Creating an Ethical Intelligent Agent. AI Magazine, Volume 28(4).

Bibliografia addicional

[modifica]
  • Anderson, Michael; Anderson, Susan Leigh, eds (July/August 2006). "Special Issue on Machine Ethics". IEEE Intelligent Systems 21 (4): 10-63.
  • Bendel, Oliver (December 11, 2013). Considerations about the Relationship between Animal and Machine Ethics. AI & SOCIETY, DOI 10.1007/s00146-013-0526-3.
  • Dabringer, Gerhard, ed. (2010). "Ethical and Legal Aspects of Unmanned Systems. Interviews". Austrian Ministry of Defence and Sports, Vienna 2010, ISBN 978-3-902761-04-0.
  • Gardner, A. (1987). An Artificial Approach to Legal Reasoning. Cambridge, DT.: MIT Press.
  • Georges, T. M. (2003). Digital Soul: Intelligent Machines and Human Values. Cambridge, DT.: Westview Press.
  • Singer, P.W. (December 29, 2009). Wired for War: The Robotics Revolution and Conflict in the 21st Century: Penguin.

Enllaços externs

[modifica]
  • Machine Ethics, Hartford University links to conferences, articles and researchers.