El ser humano siempre ha sentido curiosidad por entender el mundo, desde preguntarse por qué brillan las estrellas hasta entender cómo funciona la mente. Esa necesidad de explicación se ha transformado en una de nuestras mayores herramientas que hemos desarrollado como civilización: la ciencia.

Introducción
La ciencia es algo más que datos o fórmulas, también se trata de una sensación de asombro y arrobamiento. Comprender es bueno y es útil, pero también es placentero.
Si el placer de comprender no fuera suficiente como para justificar la enseñanza de la ciencia, prácticamente todas las agencias internacionales ponen como una de las prioridades para el siglo XXI no sólo la enseñanza de la ciencia, sino la enseñanza del pensamiento científico (México Evalúa, 2024).
Por ello es importante contestar preguntas como ¿puede el pensamiento científico ser enseñado? ¿Se puede evitar errores en el pensamiento científico? ¿Cuáles son los procesos cognitivos que subyacen al descubrimiento científico? ¿Cuáles son los métodos apropiados que los científicos deberían de usar?
Historia de la investigación del pensamiento científico
Por pensamiento científico podemos entender al menos dos cosas: los procesos mentales necesarios para pensar contenidos científicos que se usan en actividades típicas de la ciencia, o bien, operaciones cognitivas de tipo general que son usados en dominios no científicos, como la inducción, la deducción, la analogía, la solución de problemas y el razonamiento causal (Dunbar y Fugelsang, 2005).
Los primeros que comenzaron a investigar esta área fueron los gestaltistas, principalmente Max Wertheimer en su libro Pensamiento productivo (1945), que se basó en la correspondencia que mantuvo con Albert Einstein sobre su proceso de descubrimiento de la teoría de la relatividad. En esas cartas le pedía que resolviera problemas que le mandaba y le señalaba que debería de tomar notas de cómo resolvía esos problemas, y así llegó a proponer cómo es el proceso por el cual se confrontan y evalúan teorías alternativas.
Posteriormente Jerome Bruner y sus colaboradores de la Universidad de Harvard trabajaron con la habilidad cognitiva de la categorización, definida ésta como la determinación de si un elemento pertenece o no a una categoría, trabajo que fue plasmado en uno de los textos fundadores de la psicología y la ciencia cognitiva (Bruner, Goodnow y Austin, 1956). En la actualidad tenemos un instrumento neuropsicológico llamado Prueba de Clasificación de Tarjetas de Wisconsin (Wisconsin Card Sorting Test) que se derivó del trabajo de Bruner y colaboradores y que se puede jugar en línea.
Tomemos como ejemplo el ajedrez: tiene un inicio y un final —el jaque mate— y entre ambos hay una serie de jugadas previas que constituyen el espacio del problema, cada uno de los movimientos que pueden realizar las piezas son los operadores y las estrategias que se usan para jugar —la apertura española, la defensa siciliana, el gambito de dama, la defensa eslava o la apertura escocesa—; serían los heurísticos.
Otra fructífera línea de investigación fue la que iniciaron Peter Wason y sus colaboradores (1968), quienes trabajaron el pensamiento científico como prueba de hipótesis. Para lograr esto Wason elaboró varias tareas con las que demostró que las personas tendemos a confirmar y no a falsear las cosas que pensamos; se le conoce como sesgo de confirmación y es uno de los sesgos cognitivos más presentes en todos los seres humanos.
No fue hasta el trabajo de Newell y Simon (1972) cuando se propuso una teoría general sobre el pensamiento científico, concebido como una forma de solución de problemas en la cual se usan heurísticos, como la búsqueda de ejemplos y reglas para la formación de conceptos y la inducción. Esta idea ha sido muy influyente en esta área de investigación sobre el pensamiento científico. Veámoslo con más detalle.
El pensamiento científico como solución de problemas
Por pensamiento científico entendemos operaciones cognitivas de tipo general que son usadas en dominios no científicos, como la inducción–deducción, la analogía, la solución de problemas y el razonamiento causal. Un marco de trabajo que ha tenido una gran influencia en esta perspectiva ha sido la propuesta de Herbert Simon (1977); en su influyente libro concibe la solución de problemas como la búsqueda en el espacio del problema, el cual consiste en todos los posibles estados y todas las operaciones necesarias que un solucionador de problemas puede usar. Particularmente investigó los heurísticos, las representaciones y los procedimientos que las personas usan para pasar de un estado a otro. Para entender esto tomemos como ejemplo el ajedrez: tiene un inicio y un final —el jaque mate— y entre ambos hay una serie de jugadas previas que constituyen el espacio del problema, cada uno de los movimientos que pueden realizar las piezas son los operadores y las estrategias que se usan para jugar —la apertura española, la defensa siciliana, el gambito de dama, la defensa eslava o la apertura escocesa—; serían los heurísticos.
Con esa finalidad les daba a sus participantes datos sobre descubrimientos científicos —por ejemplo, los diarios de Krebs y su descubrimiento sobre el ciclo que lleva su nombre— y les pedía que razonaran en voz alta sobre ellos, después de lo cual analizaba sus protocolos verbales para ver los tipos de espacios del problema en los que los participantes habían hecho su búsqueda (Qin y Simon, 1990). Posteriormente construía un programa computacional con los heurísticos y los conocimientos —por ejemplo, de Krebs— sobre el tema en cuestión.
Desarrollos posteriores incluyeron dos espacios del problema: el de la hipótesis y el del experimento, los cuales se influyen entre sí y en el que algunos participantes se mueven del espacio de la hipótesis hacia el experimento y otros lo hacen al revés. A esta teoría se le conoce como la teoría del espacio dual y ha tenido algunas modificaciones en las que se ha incluido la instrumentación o qué tanto se sabe de un dominio en lo específico (Schunn y Klahr, 1995; Klahr y Simon, 1999).
Pensamiento científico como prueba de hipótesis
La prueba de hipótesis consiste en la evaluación de una proposición mediante la recolección de evidencia que nos permita saber qué tan cierta es esa proposición. Aquí ha habido dos grandes posiciones: los que estudian las potenciales fallas de razonamiento o de pensamiento y la mejor manera de evitar la ingenuidad científica, y la segunda tiene que ver con desentrañar los procesos mentales que subyacen a la generación de nuevas hipótesis y conceptos, sobre todo por medio de la analogía, la imaginería mental y heurísticas para la solución de problemas.
Con respecto a la primera posición, uno de los primeros grandes problemas que han estudiado es el sesgo de confirmación. Partiendo de los trabajos de Wason (1968) se ha observado que este sesgo distorsiona el diseño de experimentos, la formulación de teorías y la interpretación de datos. Por ejemplo, Klayman y Ha (1987) observaron que cuando los investigadores formulan una hipótesis tratan primero de confirmarla generando evidencia que es consistente con ella, pero después pasan a buscar los límites de la hipótesis buscando falsearla.
El sesgo de confirmación es muy duro de superar. Eso se observa en que, al momento de diseñar experimentos, los investigadores tienen dificultades para diseñarlos de tal manera que falseen su hipótesis. La explicación más socorrida ha sido la propuesta de que limitaciones en la memoria de trabajo hacen difícil a las personas considerar más de una hipótesis. Dunbar y Sussman (1995) encontraron datos a favor de esta idea al saturar la memoria de trabajo de sus sujetos de investigación mientras trataban de probar una hipótesis.
Las limitaciones de la memoria de trabajo es una hipótesis que sólo se aplica al trabajo de personas en lo individual, pero también el compromiso y la motivación que aglutina a grupos de personas puede dar pie a sesgos de confirmación en comunidades de investigadores, como se ha observado con propuestas teóricas como la fusión en frío o la teoría de cuerdas.
Pensamiento científico como búsqueda de causalidad
Se han encontrado datos que apuntan a que en general las personas prefieren el pensamiento causal más que el estadístico (Ahn y cols., 1995), lo cual sugiere que un componente central del pensamiento científico es la formulación de mecanismos explícitos de modelos causales. Un área de investigación que apunta en ese sentido es el hecho de que frecuentemente los científicos encuentran hallazgos inesperados. Dunbar y su equipo de colaboradores han realizado varias investigaciones al respecto, comenzando por ir a los laboratorios, de diversas universidades en Estados Unidos, y encontraron que en alrededor de 50% de las investigaciones había datos que no se esperaban los investigadores y que los obligaban a tener que trabajarlos. Para ello habían desarrollado diversas estrategias, una de ellas la búsqueda de mecanismos causales (Dunbar, 1997; 2001).
Un clásico ejemplo es el descubrimiento de Plutón, al cual, antes de ser descubierto, se le llamó planeta X, y se le buscó afanosamente porque había perturbaciones en las órbitas de Urano y Neptuno, que sólo podían ser explicadas por la presencia de un planeta que estuviera más allá de ellos.
Para replicar esta situación Dunbar y Fugelsang (2005) pusieron a estudiantes en situaciones experimentales en las que los resultados eran tanto esperados como inesperados, y encontraron que los sujetos pasaban más tiempo pensando sobre los resultados inesperados que con los esperados, y que mucho de ese tiempo era para pensar si esos resultados confirmaban o rechazaban su hipótesis de trabajo.
Pero los investigadores no se limitan solamente a responder a los hechos inesperados, sino que también suelen planear qué hacer con ellos. Una forma de hacerlo es desarrollar modelos causales en los que se incorporan muchas condiciones y controles con la finalidad de que los mecanismos causales se manifiesten (Baker y Dunbar, 2000).
Inducción y deducción y el pensamiento científico
Una de las ideas principales que se encuentran detrás del pensamiento científico es que el universo es predecible y que se pueden usar estrategias para hacer el descubrimiento científico. Dos de esas estrategias son el razonamiento inductivo–deductivo. En el caso de la inducción se pasa de una serie de eventos a una regla que los explique a todos y de ahí pasar a una teoría que explique no sólo los fenómenos observados, sino también algunos otros por observar. Thagard trabajó esta idea; por ejemplo, investigó (1999) cómo se usa la generalización en la inducción.
Por otro lado, con respecto a la deducción, mucha de la actividad de los científicos se adhiere a las reglas de la lógica deductiva, en la que los argumentos de los investigadores, por ejemplo, la hipótesis, puede ser fraseada como un “silogismo”, en el que las premisas llevan a la conclusión. Un clásico ejemplo es el descubrimiento de Plutón, al cual, antes de ser descubierto, se le llamó planeta X, y se le buscó afanosamente porque había perturbaciones en las órbitas de Urano y Neptuno, que sólo podían ser explicadas por la presencia de un planeta que estuviera más allá de ellos. No está por demás aclarar que la validez de una conclusión depende de precisión de las premisas. Si las premisas son correctas, la conclusión será correcta.
Esto nos lleva a la cuestión de los errores en el razonamiento, tanto deductivo como inductivo. Dos clases de errores comunes son los que tienen que ver con el contexto y el contenido. Un ejemplo de error de contexto es asumir que relaciones condicionales son bi–condicionales, es decir, es válido decir que “una persona que tiene síndrome de inmunodeficiencia adquirida (sida) entonces tiene el virus de la inmunodeficiencia humana (VIH)”, lo cual es cierto, pero no se puede decir que “si tiene el VIH, entonces tiene sida”, lo cual es un error muy común.
Un virus informático es una analogía en la que el virus real, la fuente, tiene el rasgo de ser dañino y de replicarse, pero que, en el caso del virus informático, en realidad es un tipo de programa informático —el objetivo— que perjudica y se pasa de una a otra computadora, por lo cual la analogía permite entender y predecir de qué manera trabaja.
Un error, también muy frecuente, es el de contenido, que consiste en interpretar una conclusión con base en su plausibilidad, y por ello se tiende a aceptar descubrimientos como válidos si el resultado es plausible.
La analogía en el pensamiento científico
La analogía es uno de los procesos que más se usan por parte de los científicos, como se puede ver en la biografía de muchos de ellos, ya que les permite pasar de lo que se sabe a lo que se quiere conocer. Una de las cosas buenas que hay con respecto a esta área de estudio es que ya hay mucho camino andado: hay varias teorías y modelos sobre la analogía en el descubrimiento científico (Gentner, Holyoak y Kokinov, 2001).
Se suele hacer la distinción en la analogía entre la fuente y el objetivo. La fuente es lo que se sabe, es lo que se usa para explicar lo que no se sabe, que es el objetivo. A este proceso de comparar la fuente con el objetivo se le llama mapeo de rasgos, proceso que permite localizar u ordenar rasgos en el objetivo que posibilita que se haga un descubrimiento científico. Por ejemplo, un virus informático es una analogía en la que el virus real, la fuente, tiene el rasgo de ser dañino y de replicarse, pero que, en el caso del virus informático, en realidad es un tipo de programa informático —el objetivo— que perjudica y se pasa de una a otra computadora, por lo cual la analogía permite entender y predecir de qué manera trabaja. Con la salvedad de que no todos los rasgos de la fuente pueden llevarse al objetivo, por ejemplo, no existen retro–virus en las computadoras.
El proceso de hacer una analogía consta de varios pasos: recuperación de la fuente en la memoria, mapear los rasgos tanto de la fuente como del objetivo, alinear los rasgos de ambos y hacer inferencias acerca del objetivo. Como se puede concluir por lo dicho hasta aquí, hacer una analogía no es fácil (Gentner y cols., 1997) porque las personas tienden a enfocarse en rasgos superficiales (Dunbar, 2001), porque para hacer una buena analogía los científicos suelen usar todo su conocimiento previo (Dunbar y Blanchette, 2001) y porque a veces las analogías, más que ayudar, estorban (Fischer y Lichtfield, 1992).
Cambio conceptual
Una parte importante de la ciencia es tener una teoría que conste de leyes y conceptos. Los conceptos cambian o se proponen nuevos conforme la ciencia va encontrando nuevos hechos. Este proceso nos dice que la adición de conocimiento al ya existente es relativamente sencillo comparado con el cambio conceptual radical, que consiste o bien en el cambio de la organización del conocimiento o la agregación de nuevo conocimiento, vía la adquisición de nuevos conceptos.
Se han abierto varias líneas de investigación, entre las que encontramos las del desarrollo humano (Chi y Roscoe, 2002), historia de la ciencia (Nersessian, 1998) y las ligadas a ciencias en particular, como es el caso de la física. Esta última es en especial interesante, porque la física es una disciplina difícil de entender, en parte porque, para comprenderla bien, se debe de hacer un cambio conceptual radical (McDermott y Redish, 1999), en un proceso que se parece mucho a lo descrito por Thomas Kuhn sobre las revoluciones científicas. Por ejemplo, de sentido común se piensa que el movimiento está dado más por la noción de ímpetu que por las leyes de la física, y se ha encontrado que es una idea difícil de eliminar porque puede llegar a persistir aún después de haber tomado cursos de física (McCloskey, Caramazza y Green, 1980; Kozhevnikov y Hegarty, 2001).
Dado que es un proceso difícil, es probable que este cambio se lleve a cabo a lo largo de periodos largos, lo cual hace que sea difícil de investigar, pero se han realizado algunas investigaciones que nos dan atisbos de cómo es que puede ocurrir este cambio. Dunbar (1995), al trabajar con inmunólogos, documentó cómo los hechos inesperados los obligaron a cambiar sus ideas y tener que proponer nuevos conceptos que los hicieron cambiar a otros que también tenían, sobre todo cuando trabajaron en equipo y no tanto en lo individual.
También ha quedado claro que las personas no cambian si no son confrontadas con anomalías que se oponen a sus ideas preexistentes. Y también se sabe que no se puede cambiar una teoría conceptual sin tener otra que la sustituya. Es por todo ello que la mayoría de las veces muchas concepciones erróneas científicas pueden perdurar durante largos periodos, incluso toda la vida.
El cerebro científico
Las neurociencias dieron un gran salto cuando aparecieron las diferentes técnicas de neuroimagen, como la resonancia magnética funcional, la tomografía por emisión de positrones o bien las técnicas electrofisiológicas, como los potenciales relacionados a eventos.
Las investigaciones sobre el cambio conceptual son más incipientes comparadas con las del razonamiento, pero todas revelan la manera en que el conocimiento está organizado en el cerebro y dan cuenta de la naturaleza de las representaciones del conocimiento científico.
Su uso dentro del estudio en el tema del pensamiento científico se justifica de dos maneras: en la medida en que todas estas técnicas permiten la visualización de todo el cerebro se puede tener una idea de cuál es el rango de mecanismos mentales que participan en el pensamiento científico, y segundo, permite ver si existen diferencias entre el pensamiento científico y el no científico. Por ejemplo, Dunbar (2002) sostiene que todas las personas usan los mismos mecanismos mentales en ambos tipos de pensamiento, aunque puedan ser combinados de manera diferente. Usando las técnicas antes señaladas se debería hacer un análisis de todos los subprocesos, como los que se han señalado en este artículo —analogía, causalidad, deducción e inducción, solución de problemas, etc.—, cada uno de los cuales tiene diferentes regiones cerebrales asociadas.
Hay áreas de investigación que tienen más camino andado que otras. Por ejemplo, las investigaciones sobre el cambio conceptual son más incipientes comparadas con las del razonamiento, pero todas revelan la manera en que el conocimiento está organizado en el cerebro y dan cuenta de la naturaleza de las representaciones del conocimiento científico.
Tomemos por ejemplo el razonamiento. Hay varias teorías que tratan de explicarlo, pero en las que nos queremos centrar son las que tienen que ver con la lateralización cerebral. Una teoría dice que el razonamiento está basado en el lenguaje y por ello su base cerebral estaría en el hemisferio izquierdo, mientras que otra propone que el mecanismo mental que soporta al razonamiento es el de las representaciones visuo–espaciales y por ello estaría más relacionado con el hemisferio derecho.
Una forma de poder resolver este problema es con el estudio de los sujetos cerebro divididos. Roser, Fugelsang, Dunbar, Corballis y Gazzaniga (2005) abordaron esta cuestión y encontraron que los pacientes usan el hemisferio derecho para hacer inferencias causales de eventos perceptuales, en tanto que con el izquierdo son capaces de hacer inferencias causales de eventos más complejos, pero no perceptuales.
El resultado nos da una idea de cómo el cerebro tiene estructuras neuronales especializadas que contribuyen de manera específica a interpretar el ambiente, y también dejan claro que hay mucha investigación por hacer.
Pensamiento científico y ciencias de la educación
La educación ha sido un área que ha tenido varios cambios en su enfoque en los últimos cien años. En los años treinta se propuso que además de hechos se debería de enseñar métodos y principios generales; en los cincuenta, motivados por la carrera espacial, se promovió la visión de la ciencia como un viaje de descubrimiento; en los ochenta la educación se movió a una visión constructivista en la que los estudiantes eran vistos como constructores de su propio conocimiento; se promovió que la educación debería enseñar habilidades de pensamiento y que se enfocara en situaciones en las que hubiera un trabajo colaborativo, más que el trabajo de una sola persona.
La meta de la aproximación constructivista ha sido producir un cambio conceptual por medio de una instrucción guiada, en la que el profesor es alguien que guía el descubrimiento de los alumnos. De ahí parte la aproximación del aprendizaje basado en problemas, en el cual se les presenta a los alumnos situaciones problemáticas ante las cuales debe proponer una hipótesis que las explique, para después buscar datos que corroboren su hipótesis y finalmente reflexionar y llegar a conclusiones (Reiser y cols., 2001).
¿Cuál es la mejor manera de enseñar y aprender ciencia? En realidad, no lo sabemos, porque para ello deberíamos tener estudios comparativos entre los diferentes métodos de enseñanza.
Por otro lado, el aprendizaje colaborativo está en consonancia con lo que las investigaciones sobre el proceso de descubrimiento científico han encontrado: es la forma más común en la que los investigadores trabajan. Este proceso comienza con un evento, como los mencionados resultados inesperados, que no se comprende y en el que cada miembro del grupo propone ideas para explicarlo; esas ideas son agregadas a la representación del conocimiento de cada persona y se usan las habilidades cognitivas, como el razonamiento, para transformar esa representación y así tratar de resolver el problema (Dunbar, 1998).
Después de estas reflexiones cabe hacer la pregunta ¿cuál es la mejor manera de enseñar y aprender ciencia? En realidad, no lo sabemos, porque para ello deberíamos tener estudios comparativos entre los diferentes métodos de enseñanza. Y aunque la perspectiva constructivista y basada en la solución de problemas suena atractiva, sus resultados han sido puestos en duda por multitud de revisiones en el área; por ejemplo, Kirscher y cols. (2006) critican que este enfoque no toma en cuenta la arquitectura cognitiva humana, las características de la memoria de trabajo y sus funciones, y que cuando se ha comparado la instrucción mínimamente guiada con la guiada la segunda casi siempre sale mejor parada.
Además, hay muchos otros aspectos que no han sido investigados que es muy probable que también tengan influencia en el pensamiento científico, como cuestiones de personalidad y motivacionales, los cuales deben tenerse en cuenta para tener una visión más amplia. En relación con esto, si tenemos diferentes áreas y enfoques para explicar el pensamiento científico, entonces también es necesario tener conocimiento de diferentes metodologías que ayuden a desentrañar este problema. Por último, hace falta también un desarrollo en el marco conceptual para entender cómo todo lo que se ha mencionado hasta aquí interactúa para que se pueda lograr un descubrimiento científico.
Modelos de la plausibilidad de la ciencia
Un marco conceptual para subsanar las anteriores cuestiones es el propuesto por Lombardi, Sinatra, Bailey y Butler (2024), una teoría integral sobre el desarrollo del pensamiento científico, la cual abarca cinco grandes apartados: el de la búsqueda y comprensión del conocimiento científico; participación en la construcción del conocimiento científico; cómo convertirse en agente del significado científico; el papel que desempeñan las actitudes, las creencias, los afectos y la identidad de los participantes en la actividad científica, y, por último, la literacidad científica y la pericia disciplinar.
De todos esos apartados, vamos a destacar una línea de investigación que se ubica dentro de la búsqueda y comprensión del conocimiento científico; nos referimos a la propuesta de Lombardi que estudia la integración de evidencias y aseveraciones y la confrontación de teorías controvertidas: el modelo de Juicios de Plausibilidad en el Cambio Conceptual (PJCC).
Esta teoría tiene una serie de antecedentes, comenzando por la propuesta de Rescher (1976) sobre el razonamiento plausible, continuando con la teoría del cambio conceptual de Posner (1982); el modelo de verosimilitud de elaboración ELM, Elaboration Likelihood Model, Petty y Cacioppo (1986); el modelo de reconstrucción cognitiva del conocimiento de Dole y Sinatra (1989), y el modelo de análisis de plausibilidad de Conell y Keane (2006). Con base en estos modelos previos Lombardi y colaboradores propusieron su modelo de Juicios de Plausibilidad en el Cambio Conceptual (PJCC), el cual postula que cuando las evaluaciones son más explícitas y razonadas pueden conducir a una reevaluación de la plausibilidad hacia una postura más científica (Lombardi, Nussbaum y Sinatra, 2016).
En este artículo Lombardi y colaboradores establecen que su modelo aporta dos grandes contribuciones: incorpora actitudes, valores e identidades y los juicios de plausibilidad. Por plausibilidad entienden juicios del potencial nivel de verdad de una aseveración y que, por lo tanto, es menos exigente que los juicios de verdad, los cuales tratan de medir si una proposición está acorde con la realidad.
Este modelo ha sido utilizado en relación con varios temas, sobre todo ligados a las geociencias: el cambio climático (Lombardi, Sinatra y Nussbaum, 2013); el fracking (Burrell, Bailey y Lombardi, 2016); la formación de la luna (Bailey, Girtain y Lombardi, 2016); los humedales (Lombardi y Bailey, 2016); recursos acuíferos (Medrano, Jaffe, Lombardi, Holzer y Roemmele, 2020), y el origen del universo (Dobaria, Bailey, Klavon y Lombardi, 2022).
También han trabajado en la elucidación de las condiciones en las que su modelo puede trabajar: conocimiento previo y autoeficacia (Cordova, Sinatra, Jones, Taasoobshirazi y Lombardi, 2014); efecto de la fuente de información (Lombardi, Seyranian y Sinatra, 2014); estrategias compartidas de construcción de conocimiento (Herrick, Matewos y Lombardi, 2020); negociaciones (Governor, Lombardi y Duffield, 2021), y evaluación de la evidencia en línea (Herrick, Sinatra y Lombardi, 2023).
La propuesta de Lombardi promete ser una herramienta valiosa para la promoción del pensamiento científico, y es por ello que la estamos validando para ser usada en nuestro contexto. Investigación que estamos iniciando y de la cual pronto tendremos resultados que mostrar. ®
Bibliografía
Ahn, W., Kalish, C.W., Medin, D. L., & Gelman, S. A. (1995). The role of covariation versus mechanism information in causal attribution, Cognition, 54, 299–352.
Bailey, J. M., Girtain, C., & Lombardi, D. (2016). Understanding the formation of the Earth’s Moon. The Earth Scientist, 32(2), 11-16.
Baker, L. M., & Dunbar, K. (2000). Experimental design heuristics for scientific discovery: The use of baseline and known controls. International Journal of Human Computer Studies, 53, 335–349.
Bruner, J. S., Goodnow, J. J., & Austin, G. A. (1956). A study of thinking. New York: New York Science Editions.
Burrell, S., Bailey, J. M., & Lombardi, D. (2016). Evaluating the Connections Between Fracking and Earthquakes.
Chi, M. T. H., & Roscoe, R. D. (2002). The processes and challenges of conceptual change. In M. Limon, & L. Mason (Eds.), Reconsidering Conceptual Change: Issues in Theory and Practice (pp 3–27). The Netherlands: Kluwer Academic
Cordova, J. R., Sinatra, G. M., Jones, S. H., Taasoobshirazi, G., & Lombardi, D. (2014). Confidence in prior knowledge, self-efficacy, interest and prior knowledge: Influences on conceptual change. Contemporary Educational Psychology, 39(2), 164-174.
Connell, L., & Keane, M. T. (2006). A model of plausibility. Cognitive Science, 30(1), 95-120.
Dobaria, A., Bailey, J. M., Klavon, T. G., & Lombardi, D. (2022). Students’ scientific evaluations of astronomical origins. Astronomy Education Journal, 2(1).
Dole, J. A., & Sinatra, G. M. (1998). Reconceptalizing change in the cognitive construction of knowledge. Educational psychologist, 33(2-3), 109-128.
Dunbar, K. & Blanchette, I. (2001). The invivo/ invitro approach to cognition: the case of analogy. Trends in Cognitive Sciences, 5 , 334–339.
Dunbar, K. (1995). How scientists really reason: Scientific reasoning in real-world laboratories. In R. J. Sternberg, & J. Davidson (Eds.), Mechanisms of Insight. Cambridge, MA: MIT Press.
Dunbar, K. (1997). How scientists think: Online creativity and conceptual change in science. In T. B. Ward, S. M. Smith, & S. Vaid (Eds.), Conceptual Structures and Processes: Emergence, Discovery and Change. Washington, DC: APA Press.
Dunbar, K. (1998). Problem solving. In W. Bechtel, & G. Graham (Eds.). A Companion to Cognitive Science. London, UK: Blackwell.
Dunbar, K. (2001). The analogical paradox: Why analogy is so easy in naturalistic settings, yet so difficult in the psychology laboratory. In D. Gentner, K. J. Holyoak, & B. Kokinov, Analogy:
Dunbar, K. (2002). Science as category: Implications of InVivo science for theories of cognitive development, scientific discovery, and the nature of science. In P. Caruthers, S. Stich, & M. Siegel (Eds.), Cognitive Models of Science. New York: Cambridge University Press
Dunbar, K. N., & Fugelsang, J. A. (2005). Causal Thinking in Science: How Scientists and Students Interpret the Unexpected.
Dunbar, K., & Sussman, D. (1995). Toward a cognitive account of frontal lobe function: Simulating frontal lobe deficits in normal subjects. ANNALS-NEW YORK ACADEMY OF SCIENCES, 769, 289-304.
Fischler, H., & Lichtfeldt, M. (1992). Modern physics and students conceptions. International Journal of Science Education, 1 4, 181–190.
Gentner, D., Brem, S., Ferguson, R. W., Markman, A. B., Levidow, B. B., Wolff, P., et al. (1997). Analogical reasoning and conceptual change: A case study of Johannes Kepler. The Journal of the Learning Sciences, 6(1 ), 3–40.
Gentner,D., Holyoak, K. J., & Kokinov, B. (2001). The Analogical Mind: Perspectives from Cognitive Science. Cambridge, MA: MIT Press
Governor, D., Lombardi, D., & Duffield, C. (2021). Negotiations in scientific argumentation: An interpersonal analysis. Journal of Research in Science Teaching, 58(9), 1389-1424.
Herrick, I., Matewos, A., & Lombardi, D. (2020). Examining Shared Strategies for Knowledge Construction in NGSS-Aligned Instructional Scaffold.
Herrick, I. R., Sinatra, G. M., & Lombardi, D. (2023). Is That Plausible?. The Science Teacher, 90(3), 55-59.
Holyoak, K. J., & Morrison, R. G. (Eds.). (2005). The Cambridge handbook of thinking and reasoning (Vol. 137). Cambridge: Cambridge University Press.
Kirschner, P. A., Sweller, J., Clark, R. E. (2006). Why minimal guidance during instruction does not work: An analysis of the failure of constructivist Discovery, Problem-Based, Experiential, and Inquiry-Based Teaching. Educational Psychologist, 41 (2)
Klahr, D., & Dunbar, K. (1988). Dual space search during scientific reasoning. Cognitive science, 12(1), 1-48.
Klahr, D., & Simon, H. A. (1999). Studies of scientific discovery: Complementary approaches and convergent findings. Psychological Bulletin, 125(5), 524.
Klayman, J., & Ha, Y. W. (1987). Confirmation, disconfirmation, and information in hypothesis testing. Psychological review, 94(2), 211.
Kozhevnikov, M., & Hegarty, M. (2001). Impetus beliefs as default heuristic: Dissociation between explicit and implicit knowledge about motion. Psychonomic Bulletin and Review, 8, 439–453.
Lombardi, D., & Bailey, J. M. (2016). Wetlands: Good or Bad? Evaluating Competing Models with a MEL Diagram.Lombardi, D., Nussbaum, E. M., & Sinatra, G. M. (2016). Plausibility Judgments in Conceptual Change and Epistemic Cognition. Educational Psychologist, 51(1), 35-56.
Lombardi, D., Seyranian, V., & Sinatra, G. M. (2014). Source effects and plausibility judgments when reading about climate change. Discourse Processes, 51(1-2), 75-92.
Lombardi, D., Sinatra, G. M., Bailey, J. M., & Butler, L. P. (2024). Seeking a comprehensive theory about the development of scientific thinking. Educational Psychology Review, 36(3), 72.
Lombardi, D., Sinatra, G. M., & Nussbaum, E. M. (2013). Plausibility reappraisals and shifts in middle school students’ climate change conceptions. Learning and Instruction, 27, 50-62.
Medrano, J., Jaffe, J., Lombardi, D., Holzer, M. A., & Roemmele, C. (2020). Students’ scientific evaluations of water resources. Water, 12(7), 2048.
México Evalúa (2024) Aprender parejo. Informe 3. Habilidades para el siglo XXI y la transición al mercado laboral. Disponible en: chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://politicas-publicas-a-tu-medida.mexicoevalua.org/wp-content/uploads/2024/10/Cuadernillo-14.pdf
McCloskey, M., Caramazza, A., & Green, B. (1980). Curvilinear motion in the absence of external forces: Naive beliefs about the motion of objects. Science, 2 1 0, 1139–1141 .
McDermott, L. C., & Redish, L. (1999). Research letter on physics education research. American Journal of Psychics, 67, 755.
Nersessian, N. (1998). Conceptual change. In W. Bechtel, & G. Graham (Eds.). A Companion to Cognitive Science. Londres, UK: Blackwell.
Newell, A., & Simon, H. A. (1972). Human problem solving (Vol. 104, No. 9). Englewood Cliffs, NJ: Prentice-Hall. Perspectives from Cognitive Science. Cambridge, MA: MIT Press. Publishers.
Petty, R. E., Cacioppo, J. T., Petty, R. E., & Cacioppo, J. T. (1986). The elaboration likelihood model of persuasion (pp. 1-24). Springer New York.
Posner, G. J., Strike, K. A., Hewson, P. W., & Gertzog, W. A. (1982). Accommodation of a scientific conception: Toward a theory of conceptual change. Science Education, 66(2), 211–227. https://doi. org/ 10. 1002/ sce. 37306 60207
Qin, Y., & Simon, H. A. (1990). Laboratory replication of scientific discovery processes. Cognitive Science, 14(2), 281-312.
Reiser, B. J., Tabak, I., Sandoval, W. A., Smith, B., Steinmuller, F., & Leone, T. J., (2001). BGuILE: Stategic and conceptual scaffolds for scientific inquiry in biology classrooms. In S. M. Carver, & D. Klahr (Eds.). Cognition and Instruction: Twenty Five Years of Progress. Mahwah, NJ: Erlbaum.
Rescher, N. (1976). Plausible reasoning: An introduction to the theory and practice of plausibilistic inference. Amsterdam, the Netherlands: Van Gorcum.
Roser, M. E., Fugelsang, J. A., Dunbar, K. N., Corballis, P. M., & Gazzaniga, M. S. (2005). Dissociating processes supporting causal perception and causal inference in the brain. Neuropsychology, 19(5), 591.
Schunn, C. D., & Klahr, D. (1995). A 4-space model of scientific discovery. In Proceedings of the 17th annual conference of the cognitive science society (pp. 106-111).
Simon, H. (1977). Models of discovery, Dordrecht: D. Holland R Reidel.
Thagard, P. (1999). How Scientists Explain Disease. Princeton: Princeton University Press.
Wason, P. C. (1968). Reasoning about a rule. Quarterly journal of experimental psychology, 20(3), 273-281.
Wertheimer, M. (1945). Productive thinking. Nueva York: Harper.
