Edición 13, julio-diciembre 2025
DE LA INTELIGENCIA ARTIFICIAL, SUS APLICACIONES
EN PSICOLOGÍA Y CONSIDERACIONES ÉTICAS
1
Luz Karine
Jiménez Ruiz, [email protected]
Psicóloga, Doctora en Gestión de la Innovación, Magister en Gerencia
de Talento Humano, Especialista en Seguridad y salud
en el trabajo.
Fundación Universitaria Área Andina
Código ORCID:
https://orcid.org/0000-0001-9187-1693
2 Miladys Paola Redondo Marin, [email protected] Psicóloga Especialista en sistemas
de calidad y auditoria en salud, Magister en educación, Doctorante en ciencias
básicas de la educación.
Fundación Universitaria Área Andina
Código ORCID:
https://orcid.org/0000-0002-1486-5676
DOI: https://doi.org/10.64183/2ne9rz28
Recibido: Marzo 2025
Aceptado: Junio 2025
Resumen. La integración de la inteligencia artificial (IA) en los ámbitos de la salud mental, la psicología y la toma de decisiones éticas ha generado tanto entusiasmo como preocupación. Esta revisión sistemática, guiada por los lineamientos PRISMA 2020, tiene como objetivo identificar y analizar los desafíos éticos emergentes relacionados con el uso de la IA en contextos psicológicos, clínicos y académicos. Se realizó una búsqueda en la base de datos Scopus, recuperando 50 artículos de los cuales se seleccionaron 15 con base en criterios de inclusión y exclusión previamente definidos. Los hallazgos revelan una amplia gama de implicaciones éticas, que incluyen la deshumanización, los sesgos algorítmicos, la falta de explicabilidad, y los conflictos entre eficiencia tecnológica y valores humanos. Esta revisión concluye que, si bien la IA ofrece oportunidades significativas, su aplicación en psicología debe estar respaldada por marcos normativos robustos que garanticen prácticas éticas, participativas y responsables.
Palabras clave: Inteligencia Emocional, Ética, Psicología, Salud
Mental.
ON ARTIFICIAL
INTELLIGENCE, ITS APPLICATIONS IN PSYCHOLOGY AND ETHICAL CONSIDERATIONS
1
Luz Karine
Jiménez Ruiz, [email protected]
2 Miladys Paola
Redondo Marin, [email protected]
Received: March 2025
Accepted: June 2025
Abstract.
The integration of artificial intelligence (AI) into the fields of mental health, psychology, and ethical decision-making has
generated both enthusiasm and
concern. This systematic review, guided by the PRISMA
2020 guidelines, aims to identify
and analyze emerging
ethical challenges related to
the use of AI in psychological,
clinical, and academic contexts. A search of the Scopus database was
conducted, retrieving 50 articles, of which 16 were selected based on
previously defined inclusion and exclusion criteria. The findings reveal a wide range of ethical implications, including dehumanization,
algorithmic biases, lack of explainability, and conflicts between technological efficiency and human values.
This review concludes that, while AI offers significant opportunities, its
application in psychology must be supported by robust regulatory frameworks
that ensure ethical, participatory, and responsible practices.
Keywords. Emotional Intelligence, Ethics, Psychology, Mental Health.
La inteligencia artificial (IA) se percibe como una herramienta que apoya el quehacer de diferentes ciencias en la actualidad, entre ellas la medicina, las ingenierías y hasta la educación. Pero si bien, en un momento de este desarrollo tecnológico se dudaba que una ciencia tan personalizada como la psicología pudiese operacionalizar algunos procesos mediados por IA la evidencia científica de los múltiples estudios documentados, dan cuenta de que estas también apoyan la actividad del psicólogo, generando a su vez inquietudes y desafíos éticos en este campo.
El avance de la inteligencia artificial (IA) ha transformado múltiples disciplinas, incluida la psicología. Desde algoritmos capaces de diagnosticar trastornos mentales hasta sistemas que apoyan decisiones clínicas complejas, la IA ha demostrado su potencial para aumentar la eficiencia, personalización y accesibilidad de los servicios psicológicos. Sin embargo, su adopción plantea profundos dilemas éticos. La automatización de decisiones humanas, la recopilación masiva de datos sensibles, la opacidad de los algoritmos y el desplazamiento de profesionales son algunas de las preocupaciones que requieren atención crítica.
Hoy día se habla de herramientas como los chatbots que presentan modelos de lenguaje de gran tamaño para apoyar la psicoterapia y el asesoramiento psicológico (Ooi & Wilkinson, 2024); algunas investigadoras señalan que ante la gran demanda de servicios de salud mental en contextos donde la oferta es limitada, estos software que simulan diálogos con usuarios humanos se convierten en una alternativa o complemento en la prestación de servicios de atención psicológica que puede mejorar el acceso y la disminución en los tiempos de espera para la atención profesional (Kuhail et al, 2024)
Puntualmente, los chatbots están programados para interactuar con pacientes ofreciendo consejos y guiando a través de técnicas psicológicas especialmente de la terapia cognitivo conductual; proporcionan a personas con síntomas de depresión y ansiedad ejercicios prácticos, recursos educativos y estrategias de afrontamiento.
En los contextos donde su práctica ya es permitida se señalan algunas bondades como que disponibles para la atención 24 horas al día, además su carácter anónimo y confidencial fomentan que algunos usuarios se abran fácilmente y compartan información sensible lo que puede mejorar la autorrevelación y la adherencia al tratamiento, así mismo estas herramientas son una ventaja en la evaluación inicial pues permiten recopilar información relevante de los antecedentes y enfermedad actual del paciente agilizando el proceso de diagnóstico y optimizando el tiempo y los recursos en el ámbito de la salud mental.
Sin embargo, las investigaciones revisadas también concluyen que este tipo de IA no reemplaza la intervención humana, es solo un complemento o como se mencionó anteriormente, solo una herramienta en un marco de atención integral que a su vez plantea desafíos éticos y regulatorios como la protección de datos y la necesidad de supervisión profesional para garantizar la seguridad y efectividad de las intervenciones. (Kuhail et al, 2024)
Entre los cuestionamientos éticos que plantea el uso de las IA como asesores y apoyo de las psicoterapias se establece que estas no pueden entablar una conversación terapéutica auténtica por no ser racionales y agentes con moral; tampoco se puede lograr en la alianza terapéutica basada en la empatía y la asertividad humana que requiere esta dinámica entre terapeuta y paciente; y se hace eco en la vulnerabilidad de la intimidad de los usuarios cuya información intima queda registrada en el sistema (Sedlakova & Traschel, 2022)
La aplicación de las IA en la ciencia de la psicología también ha implicado la revisión y ajustes de los códigos éticos que regulan la práctica psicoterapéutica, observando hasta el momento que, en países como el Reino Unido, los EE UU y Australia estos códigos requieren de mejoras para una mejor y segura aplicación de estas herramientas (Ooi & Wilkinson, 2024)
En respuesta a estos desafíos, esta revisión sistemática tiene como propósito analizar la literatura reciente sobre el uso ético de la IA en la psicología y áreas afines. A través del modelo PRISMA, se identifican las principales tendencias, riesgos y vacíos existentes, con el fin de contribuir al desarrollo de una práctica ética y basada en evidencia.
Se realizó una investigación cuantitativa exploratoria, mediante la realización de un scoping review utilizando el método PRISMA SR statement. La búsqueda se realizó en la base de datos Scopus utilizando los términos clave ‘ethics and artificial intelligence and psychology’ en los campos de título, resumen y palabras clave. La estrategia de búsqueda se limitó a publicaciones entre 2022 y 2025 en áreas relacionadas con Medicina, Psicología, Computación y Ciencias Sociales. Se identificaron inicialmente 261 artículos. Tras aplicar criterios de inclusión y exclusión, se seleccionaron 15 artículos que abordaban de manera directa la relación entre ética, inteligencia artificial y aplicaciones psicológicas.
Los criterios de inclusión incluyeron: estudios empíricos o teóricos publicados en revistas científicas indexadas, que abordaran aspectos éticos relacionados con el uso de inteligencia artificial en contextos psicológicos, clínicos o educativos. Se excluyeron editoriales, cartas al editor, artículos sin revisión por pares o aquellos sin foco ético relevante.
Los 16 artículos incluidos en la revisión abarcan diversas aplicaciones de la inteligencia artificial, desde evaluaciones clínicas y consultoría organizacional hasta investigaciones sobre razonamiento moral de modelos lingüísticos. Los principales hallazgos se agrupan en tres ejes: (1) beneficios y riesgos de la implementación de IA en entornos psicológicos; (2) preocupaciones éticas relacionadas con la autonomía, privacidad, sesgo algorítmico y aplicabilidad; y (3) barreras epistemológicas, legales y sociales para su adopción plena.
Se procede a presentar en la figura 1 diagrama de flujo Prisma de este estudio.
Figura 1. Diagrama de flujo
Prisma.
Fuente: Elaboración propia. (2025, tomado de la Declaración
Prisma).
De igual manera se presenta la matriz
de extracción de datos donde se resumen los objetivos, hallazgos éticos clave y
limitaciones de cada estudio revisado.
La revisión incluyó un total de 16 estudios publicados entre 2022 y 2025, extraídos de revistas científicas indexadas en Scopus, principalmente en las áreas de psicología, medicina y ética. La mayoría de los estudios se concentraron en contextos europeos y norteamericanos, con predominio de artículos publicados en revistas especializadas como Frontiers in Psychology, Professional Psychology: Research and Practice, Journal of Medical Ethics, y Artificial Intelligence.
Desde una perspectiva bibliométrica, los diseños metodológicos fueron variados: 6 estudios fueron cualitativos (entrevistas, observación, análisis conceptual), 4 cuantitativos (encuestas o experimentos controlados), 3 revisiones sistemáticas, 2 estudios de opinión y 1 entrevista estructurada con experto.
Los hallazgos se organizaron en tres ejes temáticos principales, inicialmente la aplicaciones y beneficios potenciales de la IA en psicología, se evidencia que varios estudios reportan mejoras en eficiencia diagnóstica, reducción de carga administrativa y apoyo a decisiones clínicas complejas. Por ejemplo, la integración de modelos predictivos en evaluación forense (Scarpazza et al, 2025) y el uso de IA en entornos organizacionales (Norton et al., 2024) permiten una personalización del servicio y mayor acceso a herramientas avanzadas, aunque requieren supervisión ética constante.
En segundo lugar, los desafíos éticos recurrentes, se evidencia que la literatura señala preocupaciones persistentes en torno a la explicabilidad de los algoritmos, la privacidad de los datos sensibles, el sesgo algorítmico, y la pérdida de agencia profesional. Estudios como el de Benzinger et al. (2024) muestran resistencia médica al reemplazo de juicio clínico humano por predicciones automatizadas. Asimismo, Almeida et al. (2024) evidencian que los modelos de lenguaje presentan razonamientos morales distintos al humano, lo cual plantea riesgos si se integran sin validación.
Y, finalmente, las limitaciones epistémicas y ausencia de participación significativa donde se muestra que diversos autores como Skorburg et al., (2024) y Fazelpour & De- Arteaga, (2022) advierten sobre la tendencia de la IA a reducir al individuo a un conjunto de datos, contraviniendo los principios de la investigación participativa. Se enfatiza la falta de inclusión de psicólogos y usuarios finales en el diseño y evaluación de las herramientas, lo cual compromete la legitimidad ética y social de su uso.
A pesar del reconocimiento generalizado del potencial transformador de la IA, existe consenso en la necesidad urgente de marcos normativos específicos que acompañen su integración en psicología, así como de una alfabetización ética y digital más amplia en las comunidades académicas y profesionales.
Discusión de los resultados
Los hallazgos de esta revisión sistemática evidencian que, aunque la IA ofrece oportunidades significativas para la mejora de diagnósticos, automatización de procesos y personalización de intervenciones en psicología, persisten serios desafíos éticos que deben abordarse con urgencia. Las preocupaciones en torno a la transparencia algorítmica, la pérdida de agencia humana, la deshumanización de los servicios psicológicos y los sesgos derivados de los datos de entrenamiento se repiten en la mayoría de los estudios analizados. Además, se observa una limitada participación de los usuarios finales (psicólogos, pacientes y ciudadanos) en el diseño y validación de estas herramientas, lo que pone en riesgo su aceptabilidad ética y clínica.
En relación con los beneficios y riesgos de la implementación de la IA en entornos psicológicos, varios autores consideran que esta tecnología ofrece alternativas para esta ciencia, como la mejora en la precisión diagnóstica y la posibilidad de brindar servicios en áreas distantes, vulnerables e incluso rurales, facilitando el acceso a terapias digitales y el análisis de grandes cantidades de datos para la identificación de patrones comportamentales (INFOCOP, 2025).
Sin embargo, estos beneficios se ven contrarrestados por riesgos inherentes en la atención psicológica. Uno de los más cuestionados es la despersonalización del tratamiento. Los antecedentes revisados, permiten observar que, si bien los chatbots y asistentes virtuales pueden ser útiles para tareas específicas, no son auténticos en la expresión emocional de la empatía y la asertividad en la relación terapeuta-paciente lo que puede alterar la eficacia y la calidad de las terapias psicológica (Salvatori, 2025). Además, la dependencia excesiva de sistemas automatizados puede llevar a una pérdida de la supervisión humana y a una baja en la calidad del cuidado psicológico.
En cuanto a los dilemas éticos, estos ocupan un lugar central en la discusión académica de la aplicación de la IA en la psicología. La amenaza a la autonomía humana es una de las principales inquietudes, ya que los sistemas de IA pueden incidir en la conducta de los usuarios de forma leve o inadvertida, poniendo en duda la capacidad de decisión informada de los individuos (Dávila Morán & Agüero Corzo, 2023). Asimismo, la privacidad y la seguridad de los datos son desafíos primordiales, dado que la IA procesa grandes cantidades de información sensible que pueden ser vulnerables a filtraciones o usos inadecuados (Gordon & Turnbull, 2024).
El sesgo algorítmico es otro tema frecuente entre los hallazgos de esta revisión. Los sistemas de IA, al ser entrenados con datos que pueden mostrar prejuicios culturales, de género o raciales, corren el riesgo de multiplicar y extender estas discriminaciones en sus recomendaciones y diagnósticos. Como señalan Cortina (2019) y otros autores, estos sesgos son menos perceptibles que los humanos, lo que complica su identificación y corrección (Dávila Morán & Agüero Corzo, 2023). La explicabilidad de los algoritmos, es decir, la capacidad de comprender cómo y por qué una IA toma algunas decisiones, también se observa como una limitante importante, especialmente cuando se trata de justificar intervenciones clínicas ante pacientes o autoridades legales (Gordon & Turnbull, 2024).
Otro aspecto relevante de esta revisión es la identificación de barreras epistemológicas legales y sociales para la adopción plena de la IA en el accionar del profesional de la psicología; en cuanto a ello los antecedentes muestran barreras que dificultan la adopción generalizada de la IA en psicología. Desde el punto de vista epistemológico, se destaca la complejidad de los modelos de IA para entender el contexto social y cultural de los individuos, lo que puede limitar su aplicación y relevancia en espacios complejos (Gordon & Turnbull, 2024). En el contexto legal, la responsabilidad por los errores cometidos por la IA sigue siendo un área gris, sin una entidad claramente identificada como responsable, lo que genera incertidumbre y reticencia en los profesionales de la salud mental (Gordon & Turnbull, 2024).
En el plano social y organizacional, la resistencia al cambio, la falta de comprensión sobre el funcionamiento y los beneficios de la IA, así como el temor a la pérdida de empleos o a la deshumanización de la atención, constituyen limitantes significativas (Vorecol, 2024). Superar estas barreras requiere no solo educación y formación continua, sino también la promoción de una cultura organizacional abierta a la innovación y la experimentación. Además, la participación activa de personas con experiencia vivida en salud mental en el desarrollo y regulación de sistemas de IA es considerada fundamental para garantizar la relevancia, equidad y eficacia de estas tecnologías.
En consecuencia, es imperativo indicar que los desarrolladores y usuarios de tecnologías de IA en psicología deben integrar principios éticos sólidos desde las primeras etapas de diseño de los auxiliares tecnológicos. Esto incluye promover la explicabilidad de los sistemas, la participación de los usuarios, y la instauración de comités de ética interdisciplinares. También se requiere una actualización constante de los códigos deontológicos y de las políticas públicas en salud mental y tecnológica.
La inteligencia artificial representa una herramienta poderosa para la evolución de la psicología, pero su implementación no está exenta de riesgos. Esta revisión sistemática revela que, a pesar del entusiasmo por sus aplicaciones, persisten importantes brechas éticas, epistémicas y normativas. La construcción de una práctica psicológica asistida por IA que sea ética, justa y efectiva requiere de marcos normativos claros, mayor transparencia algorítmica y participación activa de los profesionales en el proceso de desarrollo e implementación.
La revisión desarrollada, permite evidenciar que la inteligencia artificial (IA) está impactando de manera significativa la práctica psicológica, aportando beneficios notables como la mejora en la decisión diagnóstica, la disminución de la carga administrativa y el incremento en el acceso a servicios psicológicos, especialmente en contextos vulnerables o de difícil acceso. Herramientas como los chatbots y los sistemas de apoyo en la orientación clínica demuestran potencial para complementar la labor de los profesionales, optimizando recursos y facilitando intervenciones más personalizadas.
Sin embargo, estos avances tecnológicos no están exentos de riesgos y desafíos. La revisión sistemática revela que la despersonalización del tratamiento, la incapacidad de los sistemas automatizados para replicar la empatía y la asertividad humana, así como la amenaza a la autonomía y privacidad de los usuarios, constituyen preocupaciones centrales. El sesgo algorítmico y la opacidad en la toma de decisiones de la IA pueden perpetuar desigualdades y dificultar la justificación ética y legal de las intervenciones. Además, la falta de inclusión de psicólogos y usuarios finales en el diseño y evaluación de estas herramientas compromete su legitimidad y pertinencia social.
En el plano normativo y organizacional, se identifican barreras significativas para la adopción plena de la IA, como la ausencia de marcos regulatorios específicos, la indefinición de responsabilidades legales y la resistencia al cambio dentro de las comunidades profesionales. Superar estos obstáculos requiere no solo una alfabetización ética y digital más robusta, sino también la actualización constante de los códigos deontológicos y la promoción de una cultura organizacional abierta a la innovación.
Finalmente, conviene señalar que la integración de la IA en la psicología debe estar guiada por principios éticos sólidos, priorizando la explicabilidad, la protección de la privacidad y la participación activa de los usuarios y profesionales en todas las etapas de desarrollo e implementación. Solo así será posible aprovechar el potencial transformador de la IA, garantizando intervenciones seguras, efectivas y socialmente responsables en el ámbito de la salud mental.
Futuros estudios deben centrarse en evaluar empíricamente el impacto ético de estas herramientas en poblaciones diversas y contextos reales, así como en desarrollar políticas públicas y lineamientos éticos específicos que regulen su uso en psicología clínica, organizacional y educativa.
A la Fundación Universitaria del Área Andina por el respaldo institucional brindado durante el desarrollo de este trabajo. Su apoyo académico, investigativo y humano ha sido fundamental para llevar a cabo esta iniciativa, permitiendo consolidar un espacio de reflexión y construcción de conocimiento en beneficio del entorno académico y social.
Agarwal, A. (2025).
Optimizing employee roles in
the era of generative AI: a
multi-criteria decision- making analysis of co-creation dynamics. Cogent Social Sciences,
11(1). Scopus. https://doi.org/10. 1080/23311886.2025.2476737
Almeida, G. F. C. F., Nunes,
J. L., Engelmann, N., Wiegmann, A., & Araújo, M. D. (2024).
Exploring the psychology of LLMs’ moral and legal reasoning. Artificial
Intelligence, 333. Scopus. https://doi.org/10.1016/j.artint.2024.104145
Aydınlar, A., Mavi, A., Kütükçü, E., Kırımlı, E. E., Alış, D., Akın, A., & Altıntaş,
L. (2024). Awareness and level of digital literacy among students receiving
health-based education. BMC Medical Education,
24(1). Scopus. https://doi.org/10.1186/s12909- 024-05025-w
Benzinger, L., Epping, J.,
Ursin, F., & Salloch, S. (2024). Artificial Intelligence to support ethical
decision-making for incapacitated patients: A survey among German
anesthesiologists and internists. BMC Medical Ethics, 25(1). Scopus. https://doi.org/10.1186/s12910-024-01079-z
Chiofalo, M. L. M., Giudici, C., & Gardner,
H. (2022). An interview with
Howard Gardner: John H. and Elisabeth A. Hobbs research professor
of cognition and education
at the Harvard Graduate School of Education. Eurasia Journal of
Mathematics, Science and Technology
Education, 18(6). Scopus. https://doi.org/10.29333/ejmste/12035
Cortina, A. (2019). Ética de la inteligencia artificial.
Revista Iberoamericana de Bioética, (10), 1-13.
Dávila Morán, R., & Agüero Corzo, E. (2023).
Desafíos éticos de la inteligencia artificial: implicaciones para la sociedad y
la economía. Conrado, 19(94), 137-144. http://scielo.sld. cu/scielo.php?script=sci_arttext&pid=S1990- 86442023000500137&lng=es&tlng=es.
Dolunay, A., & Temel, A. C. (2024). The relationship between personal and professional goals and
emotional state in academia: A study on unethical use of artificial intelligence. Frontiers in Psychology, 15. Scopus. https://doi.org/10.3389/ fpsyg.2024.1363174
Farmer, R. L., Lockwood, A.
B., Goforth, A., & Thomas, C. (2024). Artificial Intelligence in Practice:
Opportunities, Challenges, and Ethical Considerations. Professional Psychology:
Research and Practice, 56(1), 19-32. Scopus. https://doi.org/10.1037/pro0000595
Fazelpour, S., & De-Arteaga, M. (2022). Diversity
in sociotechnical machine
learning systems. Big Data and Society, 9(1). Scopus. https://doi. org/10.1177/20539517221082027
Hesjedal, M. B., Lysø, E. H.,
Solbjør, M., & Skolbekken, J.-A. (2024). Valuing good health care: How
medical doctors, scientists and patients relate ethical challenges with artificial intelligence decision-making support
tools in prostate cancer diagnostics to good health care. Sociology of Health
and Illness, 46(8), 1808-1827. Scopus. https://doi.org/10.1111/1467-9566.13818
INFOCOP. (2025).
Beneficios y riesgos de la IA en la
atención a la salud mental, según MHE. Madrid, España.: https://www.infocop.es/. https://www. infocop.es/beneficios-y-riesgos-de-la-ia-en-la-
atencion-a-la-salud-mental-segun-mhe/
Kostick-Quenet, K., Lang, B.
H., Smith, J., Hurley, M., & Blumenthal-Barby, J. (2024). Trust criteria
for artificial intelligence in health: Normative
and epistemic considerations. Journal of Medical Ethics, 50(8), 544-551.
Scopus. https://doi. org/10.1136/jme-2023-109338
Kuhail, M., Alturki, N., Thomas, J., Alkhalifa,
A., & Alshardan, A. (2024). Terapia humano- humano versus
humano-IA: un estudio empírico. Revista internacional de interacción persona-
computadora., 1-12. doi:https://doi.org/10.1080/1
Norton, L. W., Howell,
A. W., DiGirolamo, J. A., & Hayes, T. L. (2024). USING ARTIFICIAL INTELLIGENCE IN CONSULTING
PSYCHOLOGY. Consulting Psychology Journal, 76(2), 137-162.
Scopus. https://doi.org/10.1037/ cpb0000274
Ooi, P., & Wilkinson, G. (2024). Mejora de los
códigos éticos mediante la gobernanza de la inteligencia artificial: una necesidad creciente para la
adopción de la IA generativa en la
orientación. British Journal of Guidance
& Counselling, 1-15. doi:https://doi.org/10.1080/03069885.2024.2373 180
Poszler, F., & Lange, B. (2024). The impact of intelligent
decision-support systems on humans’ ethical decision-making: A systematic
literature review and an integrated framework. Technological Forecasting and Social Change,
204. Scopus. https://doi.org/10.1016/j. techfore.2024.123403
Salvatori, S. (2025).
Los principales problemas del uso de la IA en
la Psicología. Psicología para todos PPT, 1-10. https://www.psicologiaparatodos.net/ cerebro/los-principales-problemas-del-uso-de-la-
ia-en-la-psicologia/
Scarpazza, C., &
Zangrossi, A. (2025). Artificial intelligence in insanity evaluation. Potential
opportunities and current
challenges. International
Journal of Law and Psychiatry, 100. Scopus. https://doi.org/10.1016/j.ijlp.2025.102082
Sedlakova, J., & Traschel,
M. (2022). Conversational Artificial Intelligence in Psychotherapy: A New
Therapeutic Tool or Agent? The American Journal of Bioethics, 23(5) 4-13. doi:https://doi.org/10.10 80/15265161.2022.2048739
Skorburg, J. A., O’Doherty,
K., & Friesen, P. (2024). Persons or Data Points? Ethics, Artificial
Intelligence, and the Participatory Turn in
Mental Health Research. American Psychologist, 79(1),
137-149. Scopus. https://doi.org/10.1037/ amp0001168
Vorecol. (2024). ¿Cuáles son las principales barreras
culturales para la adopción de la inteligencia artificial en las empresas
hoy en día? México D.F.: Equipo de edición de Vorecol. https://vorecol.com/ es/articulos/articulo-cuales-son-las-principales-
barreras-culturales-para-la-adopcion-de-la- inteligencia-artificial-en-las-empresas-hoy-en-
dia-117017
Yuan, S., Li, F., Browning, M.
H. E. M., Bardhan, M., Zhang, K., McAnirlin, O., Patwary, M. M.,
& Reuben, A. (2024). Leveraging and exercising caution with ChatGPT and
other generative artificial intelligence tools in environmental psychology
research. Frontiers in Psychology, 15. Scopus. https://doi.org/10.3389/ fpsyg.2024.1295275