Vés al contingut

Humanisme digital

De la Viquipèdia, l'enciclopèdia lliure

L'humanisme digital és l'adaptació de l'humanisme a la realitat de la societat digital, amb la finalitat de detectar els riscos i els problemes socials de la tecnologia digital i de proposar-ne solucions, basant-se en els principis i els valors propis de l'humanisme.[1][2][3]

A vegades, el terme es confon, tot i tenir significats molt diferents, amb el d'humanitats digitals, que és l'aplicació de les tecnologies digitals a les humanitats.[4] Un sinònim que s'usa a vegades és el terme 'humanisme tecnològic', però és menys específic que el d'humanisme digital.[5]

Riscos i problemes socials de la tecnologia digital

[modifica]

A continuació s'enumeren, sense cap ordre predeterminat, un conjunt representatiu de categories, no necessàriament disjuntes, de riscos i problemes socials que tracta l'humanisme digital:

  • Privacitat. Tota persona té dret a la protecció de dades de caràcter personal,[6] però encara hi ha molts sistemes informàtics (webs, programes d'intel·ligència artificial, ...) que no el respecten plenament.[7]
  • Vigilància. L'obtenció per part d'estats i empreses, sense autorització legal, de dades privades dels ciutadans per a usos que no consenten és una violació de la seva privacitat.[6] Hi ha estats que usen aquestes dades per al control de ciutadans,[8] i empreses que les usen amb finalitats comercials[9][10][11][12]o per a control dels seus treballadors.[13]
  • Desinformació. Es considera desinformació la informació falsa, imprecisa o enganyosa, dissenyada, presentada i difosa per causar un mal públic o per obtenir-ne un benefici. La desinformació pot atemptar contra el dret humà a la llibertat de pensament, al de mantenir opinions sense interferències, al de la privacitat, al de la llibertat d'expressió i al de vot en eleccions.[14] Les tecnologies digitals permeten la difusió de desinformació a gran escala i a gran velocitat.[15][16][17][18]
  • Patrons foscos. En un sistema informàtic (lloc web, app), un patró fosc és una característica de la seva interfície persona-ordinador dissenyada amb la finalitat d'assolir un objectiu que és contrari als interessos dels seus usuaris.[19] Hi ha molts patrons foscos,[20] i hi ha molts sistemes que n'inclouen.[21]
  • Addicció als mitjans socials. Per a alguns usuaris, l'ús dels mitjans socials és addictiu. L'addicció és perjudicial perquè el temps excessiu que les persones empren en els mitjans és en detriment de la seva dedicació a altres activitats personals o socials, i alhora fa que se sentin més ansioses i deprimides. Les empreses dels mitjans socials han dissenyat les seves plataformes de manera que siguin addictives.[22][23]
  • Automatització de feines. Les tecnologies digitals poden tenir un impacte negatiu en algunes feines. L'impacte inclou la modificació o destrucció de llocs de treball, canvis en les retribucions dels treballadors i canvis en la qualitat dels llocs de treball i en el temps que hi dediquen els treballadors. La magnitud de l'impacte depèn de la naturalesa dels llocs de treball afectats.[24][25]

Solucions

[modifica]

A més d'identificar i analitzar els riscos i problemes esmentats, dins del camp de l'humanisme digital també es fan recomanacions i propostes per a afrontar-los, així com per a aprofitar les possibilitats que ofereixen les tecnologies digitals per a una millor societat. Es poden agrupar en els tipus següents:

  • Promoció dels valors de l'humanisme digital. És una activitat bàsica per tal que totes les altres puguin reeixir. Abasta tots els nivells de la societat, especialment aquells (professionals, educatius, investigadors, polítics) que tenen més incidència en el desenvolupament i ús de les tecnologies digitals.[26]
  • Educació. L'objectiu és fer propostes per a l'educació en l'humanisme digital.[2] Es fan propostes adreçades a l'educació de professionals implicats en la gestió i el desenvolupament de les tecnologies digitals, així com propostes adreçades al conjunt de la població. Les propostes poden ser d'assignatures o cursos específics[27] o de temes a incloure en un conjunt d'assignatures d'un pla d'estudis.[28]
  • Regulació. Es tracta d'instar a legisladors i governs que regulin l'ús de tecnologies digitals en aspectes ben delimitats.[2][29] Exemples: (i) Privacitat i vigilància;[30] (ii) Patrons foscos de disseny[31] i (iii) Transparència del funcionament de les plataformes digitals[32]
  • Recomanacions de disseny i d'ús. Es tracta de proposar recomanacions que s'haurien de considerar quan es dissenya, o quan s'usa, un sistema basat en l'aplicació de tecnologies digitals. Exemples: (1) Evitar l'ús de patrons foscos;[33] (ii) Principis de disseny dels sistemes basats en la intel·ligència artificial;[34] (iii) Incloure fricció en la comunicació en mitjans socials;[35] i (iv) Consells per a la protecció de la privacitat.[30]
  • Activisme. Promoció i realització d'activitats amb la finalitat d'aconseguir un canvi concret en l'educació, regulació o el desenvolupament i ús de tecnologies digitals.

Grups

[modifica]

Entre els grups que tenen com a objectiu principal realitzar activitats que es poden inscriure en l'humanisme digital, hi ha:

  • Center for Humane Technology. Entitat sense ànim de lucre fundada el 2018 pel moviment Time Well Spent, que s'havia iniciat el 2013. La seva missió oficial és "impulsar un canvi integral cap a una tecnologia humana que doni suport al nostre benestar, a la democràcia i a un entorn d'informació compartida"[36]
  • Digital Humanism initiative. Grup fundat el 2019 a Viena. La primera activitat fou un workshop organitzat l'abril del 2019. El resultat principal fou el "Vienna Manifesto on Digital Humanism".[2] D'aleshores ençà, s'han organitzat altres workshops i una sèrie de presentacions. El 2022 publica el llibre "Perspectives on Digital Humanism".[26]
  • Stiftung Neue Verantwortung. És un laboratori d'idees sense ànim de lucre, establert a Berlin, que des de l'any 2015 està especialitzat en afers socials i polítics del canvi tecnològic digital. Realitza, publica i difon anàlisis, organitza workshops i elabora recomanacions d'acció per a responsables de polítiques.[37]
  • Electronic Frontier Foundation. Grup sense ànim de lucre de defensa de les llibertats civils en l'era digital, fundat el 1990, amb seu a San Francisco. Defensa la privacitat, la llibertat d'expressió i la innovació mitjançant litigació i suport legal, l'anàlisi i formulació de politiques, l'activisme de base i desenvolupament de tecnologia.[38]

Referències

[modifica]
  1. Doueihi, Milad «About Digital Humanism». Rebel Alliance Empowering, 16-07-2013.
  2. 2,0 2,1 2,2 2,3 «Vienna Manifesto on Digital Humanism», 01-05-2019. [Consulta: 6 maig 2022].
  3. Messner, Dirk «Redefining and Renewing Humanism in the Digital Age». IEEE Technology and society magazine, 6-2020.
  4. Parry, Dave «The digital humanities or a digital humanism». Debates in the Digital Humanities, 2012.
  5. «Reflections on what it would mean for Barcelona to become the capital of technological humanism», 01-03-2022. [Consulta: 6 maig 2022].
  6. 6,0 6,1 «Carta dels drets fonamentals de la Unió Europea». 1 gener 2020. [Consulta: 22 maig 2006].
  7. Office of the High Commissioner for Human Rights «The right to privacy in the digital age: report (2021)». United nations, 15-09-2021.
  8. Stallman, Richard M. «Stallman: How Much Surveillance Can Democracy Withstand?». Wired, 14-10-2013.
  9. Sannon, Shruti; Billie, Sun; Cosley, Dan «Privacy, Surveillance, and Power in the Gig Economy». CHI Conference on Human Factors in Computing Systems (CHI '22), 2022.
  10. Zuboff, Shoshana. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs, Hachette Book Group, 2019. 
  11. Stanger, Allison «The Real Cost of Surveillance Capitalism: Digital Humanism in the United States and Europe». H. Werthner, E. Prem, E. A. Lee, and C. Ghezzi (eds): Perspectives on Digital Humanism, Springer, 2022.
  12. «ICCL report on scale of Real-Time Bidding data broadcasts in the U.S. and Europe». Irish Council for Civil Liberties, 16-05-2022. [Consulta: 18 maig 2022].
  13. «Welcome to the era of the hyper-surveilled office». The economist, 14-05-2022. [Consulta: 12 maig 2022].
  14. Jones, Kate «Online Disinformation and Political Discourse Applying a Human Rights Framework». International Law Programme, 11-2019.
  15. Quain, Clodagh; Cheallacháin, Deirdre Ni. «Disinformation in the Digital Age: the need to regulate», 28-11-2019. [Consulta: 9 maig 2022].
  16. Posetti, Julie «Online Disinformation and Political Discourse. Applying a Human Rights Framework». Journalism, ‘Fake News’ & Disinformation. UNESCO., 2018.
  17. «The Supply of Disinformation Will Soon Be Infinite». The Atlantic, 20-09-2020. [Consulta: 9 maig 2022].
  18. Levi, Simona. #Fake you. Fake news i desinformació. Raig Verd, octubre 2019. ISBN 9788417925055. 
  19. European data protection board «[https://edpb.europa.eu/system/files/2022-03/edpb_03-2022_guidelines_on_dark_patterns_in_social_media_platform_interfaces_en.pdf Guidelines 3/2022 on Dark patterns in social media platform interfaces: How to recognise and avoid them]». European Data Protection Board, 14-03-2022.
  20. «Deceptive design». Harry Brignull. [Consulta: 10 maig 2022].
  21. Mathur, Arunesh; Gunes Acar, Michael J. Friedman, Eli Lucherini, Jonathan Mayer, Marshini Chetty, and Arvind Narayanan «Dark Patterns at Scale: Findings from a Crawl of 11K Shopping Websites». Proc. ACM Hum.-Comput. Interact. 3, CSCW, Article 81, 11-2019.
  22. Bhargava, Vikram R.; Velasquez, Manuel «Ethics of the Attention Economy: The Problem of Social Media Addiction». Business Ethics Quarterly 31:3, 7-2021, pàg. 321–359.
  23. «Tech Bigwigs Know How Addictive Their Products Are. Why Don’t the Rest of Us?». Wired, 24-03-2017. [Consulta: 13 maig 2022].
  24. David Spencer, Matt Cole, Simon Joyce, Xanthe Whittaker and Mark Stuart «Digital automation and the future of work». European parliament, 1-2021.
  25. Samaan, Daniel K. «Work without jobs». H. Werthner, E. Prem, E. A. Lee, and C. Ghezzi (eds): Perspectives on Digital Humanism. Springer, 2022.
  26. 26,0 26,1 Hannes Werthner, Erich Prem, Edward A. Lee, and Carlo Ghezzi (eds). Perspectives on Digital Humanism. Springer, 2022. 
  27. «Foundations of Humane Technology». Center for humane technology. [Consulta: 24 maig 2022].
  28. Barbara J. Grosz, David Gray Grant, Kate Vredenburgh, Jeff Behrends, Lily Hu, Alison Simmons, Jim Waldo «Embedded EthiCS: integrating ethics across CS education». Commun. ACM 62(8), 2019, pàg. 54-61.
  29. Tufekci, Zeynep «We Need to Take Back Our Privacy». The New York Times, 19-05-2022.
  30. 30,0 30,1 Véliz, Carissa. Privacy is power. Melville House, 2021. ISBN 9781612199153. 
  31. Rieger, Sebastian; Sinders, Caroline «Dark Patterns: Regulating Digital Design». Stiftung Neue Verantwortung, 13-05-2020.
  32. Working group on infodemics «How to end infodemics». Forum on Information and Democracy, 12-11-2020.
  33. Arvind Narayanan, Arunesh Mathur, Marshini Chetty, and Mihir Kshirsagar «Dark patterns: past, present, and future». Commun. ACM 63, 9, 9-2020, pàg. 42–47.
  34. OECD «Recommendation of the Council on Artificial Intelligence». OECD/LEGAL/0449, 2019.
  35. «How to Stop Misinformation Before It Gets Shared». Wired, 26-03-2021. [Consulta: 26 maig 2022].
  36. «Center for humane technology». [Consulta: 11 maig 2022].
  37. «Think Tank at the intersection of technology and society». [Consulta: 20 maig 2022].
  38. «About EFF». Electronic Frontier Foundation. [Consulta: 30 maig 2022].