• português (Brasil)
    • English
    • español
  • español 
    • português (Brasil)
    • English
    • español
  • Login
Ver ítem 
  •   DSpace Principal
  • Instituto de Filosofia, Sociologia e Política - IFISP
  • Pós-Graduação em Filosofia - PPGFIL
  • PPGFIL: Dissertações e Teses
  • Ver ítem
  •   DSpace Principal
  • Instituto de Filosofia, Sociologia e Política - IFISP
  • Pós-Graduação em Filosofia - PPGFIL
  • PPGFIL: Dissertações e Teses
  • Ver ítem
JavaScript is disabled for your browser. Some features of this site may not work without it.

Sobre a viabilidade da representação de conhecimento moral em sistemas inteligentes: uma abordagem baseada em lógica não-monotônica

Thumbnail
Ver/
Sobre a viabilidade da representação de conhecimento moral em sistemas inteligentes: uma abordagem baseada em lógica não-monotônica (630.0Kb)
Fecha
2024-08-07
Autor
Azambuja, Flávia Braga de
Metadatos
Mostrar el registro completo del ítem
Resumen
Esta tese investiga a capacidade de sistemas de inteligência artificial (IA) para engajar-se em tomadas de decisão moralmente significativas. A hipótese geral postula que, embora a IA esteja se tornando onipresente em contextos que exigem julgamentos morais, não podemos atribuir responsabilidade moral a sistemas autônomos, pois o conhecimento moral não pode ser completamente representado ou simulado por lógica. As hipóteses específicas exploram várias nuances dessa questão central. Argumenta-se que sistemas autônomos não possuem "motivação moral" e que, apesar da capacidade da IA de automatizar alguns processos de pensamento humano, como criatividade e decisões, ela não pode gerar conhecimento moral autêntico devido ao impacto do viés de dados e à natureza condicional e contextual do conhecimento. A tese também sustenta que não é possível estabelecer uma base para o conhecimento moral sem considerar o elemento da crença, nem simular artificialmente a crença para produzir conhecimento moral. Para examinar essas hipóteses, a tese utiliza dilemas morais, envolvendo situações de tomada de decisão complexa, que são modelados através de equações de lógica modal para avaliar a capacidade da IA de resolver esses dilemas. A análise mostra que, embora a IA possa simular respostas a dilemas baseando-se em premissas lógicas, sempre há uma lacuna significativa devido à ausência de motivação moral e compreensão contextual, cruciais para decisões genuinamente morais. Incorporando o pensamento de Stuart Mill e Jesse Prinz, a pesquisa aprofunda a compreensão de como conceitos filosóficos tradicionais podem ser aplicados a problemas modernos, ilustrando que a empatia, a motivação moral humana e o julgamento ético são aspectos que a IA atualmente não pode replicar ou incorporar de forma autônoma. A conclusão reforça que a IA, por mais avançada que seja, não pode substituir o julgamento moral humano. As contribuições científicas desta pesquisa são substanciais, promovendo o debate sobre ética da IA esclarecendo os limites da automatização de decisões morais.
URI
http://guaiaca.ufpel.edu.br/xmlui/handle/prefix/15058
Colecciones
  • PPGFIL: Dissertações e Teses [145]

DSpace software copyright © 2002-2022  LYRASIS
Contacto | Sugerencias
Theme by 
Atmire NV
 

 

Listar

Todo DSpaceComunidades & ColeccionesPor fecha de publicaciónAutoresAdvisorsTítulosMateriasKnowledge Areas (CNPq)DepartmentsProgramsDocument TypesAccess TypesEsta colecciónPor fecha de publicaciónAutoresAdvisorsTítulosMateriasKnowledge Areas (CNPq)DepartmentsProgramsDocument TypesAccess Types

Mi cuenta

AccederRegistro

Estadísticas

Ver Estadísticas de uso

DSpace software copyright © 2002-2022  LYRASIS
Contacto | Sugerencias
Theme by 
Atmire NV