miércoles, 15 de noviembre de 2017

TRABAJO PRÁCTICO N° 11

TEMA: SERENDIPIA

NOMBRES: 
ACTIVIDADES: 
1. Busquen en Internet los siguientes descubrimientos y comenten el caso: 
a. Mestral y la invención del velcro.
b. Daguerré y la fotografía
c. Goodyear y la vulcanización del caucho
2. Lean detenidamente el texto, y realicen cinco preguntas, como si ustedes estuvieran confeccionando un trabajo práctico. 

 “Serendipia” es una curiosa palabra asociada a otros hechos también curiosos. Probablemente no conozcan esta palabra, y de hecho, si la buscan en el diccionario no aparece, porque este término no ha sido aceptado aún oficialmente.
La “serendipidad” podría definirse como “la facultad de hacer un descubrimiento o un hallazgo afortunado de manera accidental”, o también, “encontrar soluciones a problemas no planteados, sin buscarlas siquiera”. Sí existe, en cambio, la palabra “Serendipity”, aceptada por la Academia de la lengua inglesa. Y en nuestro idioma, existe el término coloquial “chiripa”, que podría ser considerado un sinónimo de “serendipia”.
Históricamente, esta palabra se extrajo del relato “Los tres príncipes del Serendip”, que se cita en la obra La historia de Simbad de las mil y una noches. Les resumo el relato: “Había una vez un reino exótico y oriental llamado Serendip (parece ser que se podría situar en Sarandib o Serandib, denominación ancestral de la isla de Ceilán/Sri Lanka, o quizá Serendip siempre existió en Persia, el reino de los cuentos). En dicho reino, había tres príncipes que tenían el don del descubrimiento fortuito. Ellos encontraban, sin buscarla, la respuesta a problemas que no se habían planteado; gracias a su capacidad de observación y a su sagacidad, descubrían accidentalmente la solución a dilemas impensados”. Tan peculiar le debió de parecer este relato a Horace Walpole en el siglo XVIII que inventó al efecto la expresiva palabra “Serendipity” para denominar a todos esos descubrimientos producidos por la combinación de sagacidad y accidente.
La historia está llena de descubrimientos “serendípicos”, es decir, que la “serendipia” nos conduce a resultados importantes.
Las fases del proceso podrían ser las siguientes:1) existe un problema; 2) existe un sujeto con el problema; 3) el sujeto está buscando una solución; y 4) el sujeto encuentra la solución por accidente
Pero esto nos conduce a una segunda cuestión: ¿cómo sabe el sujeto que “eso” que ha descubierto es la solución? Aquí intervienen muchos factores, pero, por encima de todo, existe sagacidad e intuición. El sujeto busca algo específico que encaje en el problema como una llave en una cerradura. Esto supone que debe estar atento y alerta, y que además sabe perfectamente qué falta, y lo espera. Por eso, la “serendipia” no es un accidente, no es una casualidad, ni tampoco buena suerte, pero lo parece. Para quien está fuera del problema, llegar a la solución es fruto del azar, un regalo de los dioses. Quien está en el problema, en cambio, está atento, tenso, para cazar la respuesta al vuelo cuando se le presente, y en este caso, llegar a la solución no es una casualidad. La “serendipia” no es magia, pero en el proceso “serendípico” interviene la magia porque la solución surge de modo inesperado y del rincón más oculto de nuestro ser.
Uno de los factores determinantes para que se pueda producir la “serendipia”, y para el progreso humano en general, es la creatividad, que es una facultad innata en el hombre. La creatividad se basa en la capacidad imaginativa de cada uno y, sin duda, detrás de los grandes descubrimientos de la ciencia siempre ha estado la imaginación. Y es que para poder hacer un hallazgo, hace falta una mente abierta y libre, que contemple todas las posibles soluciones por inverosímiles que parezcan, pues si algo hemos aprendido (de los descubrimientos del apartado anterior), es que en cualquier momento “salta la liebre”, que la respuesta que tanto deseamos podemos hallarla en el momento más inesperado. Por eso, si un científico dedica su vida al estudio de un proceso, con la idea de descubrir lo que nadie ha podido hasta ahora, si no consigue encontrar la solución tras años de esfuerzo y dedicación, a este estudioso le quedan dos opciones: abandonar esa búsqueda que ha podido convertirse en una obsesión que domina su vida, o por el contrario, continuar sus investigaciones pero tomando otro camino, porque el científico tiene que ser práctico e inteligente, y ser capaz de romper barreras, de romper las propias barreras de su mente. Llega un momento en la trayectoria de todo investigador en que tiene que saber renunciar a una idea que no acaba de cuajar para contemplar otras posibilidades, que tal vez le lleven, por fin, al camino correcto.
Ante todo, la creatividad-imaginación no puede existir en una mente que se aferra desesperadamente a algo. La imaginación supone que nuestra mente puede volar en libertad, dirigida por la voluntad y supervisada por la inteligencia, pues si no, no podríamos hablar de imaginación sino de fantasía: de múltiples imágenes que se suceden sin control, pero que desde luego no nos llevarán a ninguna solución viable.
El científico, si quiere avanzar y poder acercarse a la “serendipia”, no debe permitir que nada influya en su investigación, ni siquiera su propio deseo de éxito, porque desear algo con demasiada vehemencia puede ser el principal obstáculo para que podamos alcanzarlo.
El hombre suele creer que para conseguir sus objetivos basta con perseverar y formarse en una disciplina, pero esto no es del todo exacto. Solemos pasar por alto un factor fundamental para la vida: el amor. Todo aquel que quiera aprender y especializarse en una disciplina científica no solo ha de estudiar sobre ese tema, sino que debe amarlo. Seguramente la mejor manera de alcanzar el éxito sea amar todo aquello en lo que trabajamos de una manera desinteresada. No olvidemos que la ciencia lo que persigue es descubrir los secretos que la naturaleza posee, y para ello, el egoísmo o la vanidad son nuestros peores enemigos.
Hay quienes dicen que para hacer un nuevo descubrimiento hay que tener un poco de suerte, pero no nos limitemos a creer que las respuestas surgen por casualidad. Lo cierto es que todos aquellos que han sido iluminados con alguna verdad que los demás no han sido capaces de encontrar tenían muchas cosas en común, y es que, sin saberlo, se estaban preparando para poder ser dignos del premio que iban a recibir (se encaminaban hacia su destino). Quiero decir que es posible formarse y educarse a lo largo de la vida para poder acercarse, al menos, a la “serendipia”.
Las cualidades que nos educan hacia la “serendipia” son muy variadas. Para empezar, los accidentes se convierten en descubrimientos debido a la sagacidad de la persona que se tropezó con ese accidente. Pero no solo eso: todo estudioso ha de tener una formación básica con la que trabajar; por eso, es fundamental una mente preparada (Louis Pasteur dijo: “La fortuna favorece a la mente preparada”). Eso supone toda una vida dedicada al estudio: perseverancia, estar continuamente aprendiendo. Y además, esta preparación debe ser una formación global, lo más completa posible, porque muchos de los grandes descubrimientos se produjeron gracias a que el investigador tenía nociones básicas de muchos campos diferentes dentro de la ciencia (se necesitan muchos conocimientos para comprender el problema; si este no se entiende, difícilmente se encontrará la solución). Los accidentes se convierten en descubrimientos gracias a la curiosidad manifiesta del que observa el suceso, que, junto con la percepción, le llevan a darse cuenta del significado de lo que acaba de ver. Ambas, curiosidad y percepción, pueden ser más despiertas en el caso de algunas personas, pero también pueden estimularse. Está claro que la observación va a ser fundamental en lo que la “serendipia” se refiere. Por eso es muy útil ir anotando todos los resultados obtenidos en las investigaciones: tanto los esperados como los inesperados. Y todo eso hay que interpretarlo con la mayor objetividad posible. Para ello, es necesario ser flexibles en pensamiento y en interpretación, no despreciando los resultados inesperados considerándolos “erróneos”, porque, a veces, el resultado inesperado es lo que lleva al descubrimiento. Por eso, la mente preparada ha de estar también preparada para sorprenderse.
También debemos contar con el poder de la fortuna (un viejo poema nórdico dice: “Es mejor tener suerte que ser listo”), que parece tener a una serie de “elegidos” que tendrán la suerte de estar en el lugar preciso en el momento adecuado. No olvidemos tampoco la creatividad como elemento básico del ser humano para concebir lo que parecía imposible.
Además, estos científicos tenían otra cosa más en común: no tenían miedo al descrédito profesional o a la humillación por plantearse lo que nadie creyó que valía la pena plantear. Tenían gran confianza en sí mismos y, aunque encontraron una gran oposición entre sus colegas, ellos seguían defendiendo aquello de lo que estaban convencidos, generando así nuevas maneras de pensar. Se caracterizaban por estar siempre aprendiendo de los errores, o incluso, indagando en ellos como fuente de inspiración para nuevas investigaciones, porque el científico debe saber “sacarle partido a todo” y tener en cuenta que las equivocaciones sugieren muchas veces rutas que nos pueden llevar a la verdad. Por tanto, el hecho de que muchos estudiosos fracasaran no es porque se movieran en la dirección equivocada, sino más bien porque no se atrevieron a ir lo suficientemente lejos.
Todos los factores descritos en el apartado anterior son muy importantes a la hora de intentar hacer un gran descubrimiento, pero, en última instancia, existe un factor clave y absolutamente esencial: la intuición. Con seguridad, todos los descubridores (del pasado y los que vengan en el futuro) tienen algo en común: ellos fueron capaces de entender el significado de lo que acababan de ver. Es como si el germen de una idea estuviese flotando en el aire, esperando ser descubierta. Pues bien, estos “elegidos” pudieron alcanzarla por ser lo bastante listos o lo bastante intuitivos. Debemos creer que la respuesta está a veces delante de nosotros, pero necesitamos ese destello (proveniente de la intuición) para verlo todo claro de repente, sabiendo conectar entre sí ideas que aparentemente no tenían relación alguna.

PROFESOR: EDUARDO F. CAÑUETO

viernes, 10 de noviembre de 2017

TRABAJO PRÁCTICO N°10

ACTIVIDADES: 
1- Lea detenidamente el siguiente texto y realice la siguiente tarea: 
a. Subraye las ideas principales
b. Establezca un glosario si hay términos (palabras) que desconoce
c. Realice un cuadro señalando las diferencias principales entre la ciencia básica y la ciencia aplicada
2- Por qué sostiene Mario Bunge que las ciencias puras no tienen responsabilidades éticas. Fundamente con un ejemplo:
3- Señale al menos tres ejemplos en que la ciencia aplicada toma conocimientos de la ciencia básica o pura (puede buscar en Internet)
4- Qué significa decir que:  
a. “Las Ciencias Básicas permiten adquirir un conocimiento de métodos o caminos diversos para lograr un razonamiento lógico más eficaz”
b. “hay una ultraalimentación positiva entre la ciencia aplicada y la ciencia pura”
5- Por qué podría haber en los centros avanzados de estudio una fuerte inclinación a rechazar a la ciencia básica como actividad válida.


ARTÍCULO DE METODOLOGÍA DE LA INVESTIGACIÓN: Ciencia básica vs Ciencia aplicada.
La ciencia es un saber que busca leyes mediante las cuales poder explicar la realidad.  Las ciencias se pueden dividir en puras (fundamentales) y aplicadas.  
Mario Bunge denomina ciencia pura o básica a aquellas investigaciones científicas en las que solo se busca obtener conocimiento de un determinado sector de la realidad. Califica como “pura” este tipo de investigación, en la medida en que no tiene otra finalidad que la búsqueda del conocimiento excluyendo intereses prácticos. También califica estas investigaciones como “básicas” por constituir la base teórica de los conocimientos sobre la que se apoya la ciencia aplicada o la tecnología. 
Ciencia aplicada es el nombre dado a las investigaciones teóricas o experimentales que explican los conocimientos de la ciencia básica a problemas prácticos. Tanto la ciencia básica como la aplicada se proponen descubrir leyes a fin de comprender la realidad. En ambas se plantean problemas conocidos, en los cuales se requiere una determinada solución que se verá basada en los “conocimientos”  previos adquiridos. 
Pero la ciencia aplicada, en lugar de ocuparse de problemas generales, utiliza los conocimientos de la ciencia básica en vista a posibles aplicaciones prácticas, aun cuando no emprenda ninguna investigación técnica. 
La ciencia básica no está atravesada por intereses  prácticos ni por una ideología particular, y que su único fin es la búsqueda de la verdad. De donde concluye que la ciencia pura no tiene responsabilidades éticas respecto de las consecuencias que resultan de las aplicaciones de lo que descubre o produce como saber.                                     
El dominio de las ciencias básicas facilita el desarrollo de la potencialidad creativa de los jóvenes estudiantes, lo que es cada vez más importante para el Ingeniero de hoy, debido a la creciente complejidad de la tecnología y al alto grado de flexibilidad que se requiere de un profesional. Se busca estrechar los vínculos con los sectores productivos para lo mismo se propone iniciar un programa especial de complemento de la formación científica básica. La adecuada comprensión requiere de la observación  de fenómenos naturales y de la realización de experimentos que pongan en evidencia la relación entre el mundo real y las teorías que permiten explicarlo de una manera sencilla. 
Las Ciencias Básicas permiten adquirir un conocimiento de métodos o caminos diversos para lograr un razonamiento lógico más eficaz, si bien algunas ciencias dan el contexto para aplicar el método, siempre está presente el lugar activo del estudiante y la invitación constante a cuestionar, a arriesgarse a cometer errores, y a buscar nuevos caminos y a construir un método propio de resolución del problema.  Las ciencias fundamentales estudian el mundo que nos rodea incluso a nosotros mismos sin ningún beneficio inmediato para el hombre. Se investiga porque es sencillamente interesante. Sólo por el hecho de que somos humanos nos interesa conocer y entender las cosas, pues la curiosidad es una característica inherente a nuestra especie. Por otro lado, las ciencias aplicadas nos ayudan en aspectos determinados de nuestra vida, por ejemplo, para producir más mercancías, o que éstas sean más baratas y de mejor calidad. 
Cada hallazgo que realiza la ciencia pura, implica a su vez el progreso de la ciencia aplicada. Se ha negado que existiera diferencia alguna entre  la ciencia básica y ciencia aplicada. El tiempo que pasa entre el descubrimiento fundamentales y su aplicación ha ido disminuyendo, y hay frecuentemente una ultraalimentación positiva entre la ciencia aplicada hacia la ciencia pura. 
Pero, aunque existe una zona gris en la que los dos tipos de  ciencia se confunden y no pueden distinguirse, hay en los extremos una diferencia el menos con respecto a la motivación del investigador y al lapso entre el descubrimiento y su posible aplicación. Sea cual fuere el caso, las palabras básica y aplicada se utilizan para dar o negar apoyo a la investigación de un tipo o de otro. Dos fenómenos son evidentes con relación a la ciencia básica, primero se le da una proporción relativamente elevada de los recursos financieros en comparación con lo que ocurre en los países industrializados y segundo, hay un fuerte movimiento dentro de la sociedad y de los Conicits para rechazar la ciencia básica como actividad válida y para pensar que sólo una ciencia cercana al pueblo y aplicada a la realidad debe ser cultivada. La más alta de nuestras prioridades es la de preparar buenos científicos, en una atmósfera rigurosa, que puede sostenerse mediante el cultivo de una ciencia básica de alta calidad. Los métodos, las actitudes, la disciplina que se necesita para la ciencia básica, inspiran luego la aplicada. 
Es así como podemos decir que la ciencia básica necesita más y no menos recursos. (Disponible en Internet:http://www.fca.uner.edu.ar/academicas/deptos/catedras/metodologia/Grupo%201/csbasicas_vx_csaplicada.pdf)

PROFESOR: EDUARDO CAÑUETO

FILOSOFÍA E HISTORIA DE LA CIENCIA Y LA TECNOLOGÍA CLASE 03/11/2017

CIENCIA PURA Y CIENCIA APLICADA
Intuitivamente parece que podríamos explicar en que consiste las diferencias de ambas con ejemplos. Básicamente, ciencia pura sería la ciencia que busca el conocimiento en general, por el saber en si, y no para darle aplicación real alguna, contrario a la ciencia aplicada, que utiliza los conocimientos obtenidos por la ciencia pura para darle aplicaciones prácticas.
Haces ciencia pura cuando estas investigando y encontrando cosas que no se sabian por el interés del saber en si (ciencia basica); por ejemplo, antes no se sabia que los ribosomas eran los encargados junto con el tRNAaa de traducir el RNAmensajero y la persona que lo descubrio hizo ciencia pura o ciencia basica (encontro algo que no se sabia). Ahora bien, la ciencia aplicada es cuando esta investigado algo con la finalidad de aplicarlo a la vida diaria o a la produccion de algo; por ejemplo, hay bacterias que producen unas proteinas que son toxicas para ciertos insectos… haces ciencia aplicada cuando investigas que tipo de proteina es, como es su actividad contra los bichos y que tipos de bichos ataca, con la finalidad de utilizarla como biocontrol para matar plagas de ciertos cultivos y no usar compuestos toxicos para el ser humano.

Otros ejemplos:

ciencia pura : fisica cuantica
ciencia aplicada : juntura de semiconductores P N
tecnología :  chips (transistores agrupados)

ciencia pura : termodinamica
ciencia aplicada : medición de rendimiento de ciclos
tecnología : motores de explosión

ciencia pura : electricidad
ciencia aplicada : medicion de circuitos
Tecnología : Puente de Wheatstone
para medicion de resistencia

ciencia pura : magnetismo
ciencia aplicada : calculo de campo magnetico
y de induccion
tecnologia : motores electricos

ciencia pura : hidraulica
ciencia aplicada : principio de pascal
tecnología : prensa hidráulica

OTROS CONCEPTOS
Ciencia Experimental:

La ciencia (del latín scientia, "conocimiento") es un proceso de adquisición y refinado de conocimiento, así como, la organización de dicho conocimiento. Es el conocimiento producto de una práctica humana con reglas establecidas, cuya finalidad es obtener por diversos medios un conjunto de reglas o leyes universales, generalmente de índole matemática, que dan cuenta del comportamiento de un sistema y predicen cómo actuará dicho sistema en determinadas circunstancias.
La ciencia experimental se ocupa exclusivamente del estudio del universo natural, ya que por definición todo lo que puede ser detectado o medido forma parte de él. Los científicos se ajustan, en su investigación, a un cierto método, el método científico, un proceso para la adquisición de conocimiento empírico. La ciencia puede a su vez diferenciarse en ciencia básica y aplicada, siendo esta última la aplicación del conocimiento científico a las necesidades humanas y al desarrollo tecnológico.
Algunos descubrimientos científicos pueden resultar contraintuitivos, es decir, contrarios al sentido común. Ejemplos de esto son la teoría atómica o la mecánica cuántica, que desafían nociones comunes sobre la materia. Muchas concepciones intuitivas de la naturaleza han sido transformadas a partir de hallazgos científicos, como el movimiento de traslación de la Tierra alrededor del Sol o la teoría evolutiva de Charles Darwin.

Terminología: (charla en clase con los alumnos)
Los términos modelo, hipótesis, ley y teoría tienen significados distintos en la ciencia que en el discurso coloquial. Los científicos utilizan el término modelo para referirse a una descripción de algo, especialmente una que pueda ser usada para realizar predicciones que puedan ser sometidas a prueba por experimentación u observación. Una hipótesis es una afirmación que (aun) no ha sido bien respaldada o bien no ha sido descartada. Una ley física o ley natural es una generalización científica basada en observaciones empíricas.
La palabra teoría es incomprendida particularmente por el común de la gente. El uso vulgar de la palabra "teoría" se refiere, equivocadamente, a ideas que no poseen demostraciones firmes o respaldo. En contraposición, los científicos generalmente utilizan esta palabra para referirse a cuerpos de leyes que realizan predicciones acerca de fenómenos específicos.

Articulación y unificación entre teorías y disciplinas

LA INTERDISCIPLINARIEDAD
Un campo interdisciplinario es un campo de estudio que cruza los límites tradicionales entre varias disciplinas académicas o entre varias escuelas de pensamiento, por el surgimiento de nuevas necesidades o la elección de nuevas profesiones.
En principio, el término interdisciplinario se aplica en el campo pedagógico al tipo de trabajo científico que requiere metodológicamente de la colaboración de diversas y diferentes disciplinas y, en general, la colaboración de especialistas procedentes de diversas áreas tradicionales.
La interdisciplinariedad involucra grupos de investigadores, estudiantes y maestros con el objetivo de vincular e integrar muchas escuelas de pensamiento, profesiones o tecnologías, en la búsqueda de un fin común.
En este sentido podemos decir que todas las clasificaciones de las ciencias tienen fecha de caducidad. A partir del siglo XIX y con el asombroso crecimiento producido por el conocimiento científico surgen numerosas ciencias con yuxtaposiciones de parcelas establecidas por ciencias anteriores:
De las teorías del calor y sus relaciones con la mecánica: Termodinámica.
De las relaciones de la electricidad y la química: Electroquímica.
De la relación física y la química: Fisicoquímica.
De las relaciones de la química y la biología, surgirá la Bioquímica, etc.

CARACTERÍSTICAS MÁS COMUNES DE LA INTERDISCIPLINARIEDAD 
Integración de teorías
Desarrollo científico técnico
Se promueve el desarrollo de nuevos enfoques metodológicos
Desde el campo científico tecnológico dio lugar a múltiples ramas científicas
Representa actualmente la fuerza del cambio, la verdad como la manifestación de la multiplicidad
Como reto en el trabajo interdisciplinario sería: a) trascender las divisiones disciplinarias; b) perder el miedo a preguntar lo obvio; c) enriquecer ese espacio de conflicto de saberes a través del trabajo en equipo
PROFESOR: EDUARDO F.CAÑUETO

domingo, 29 de octubre de 2017

TRABAJO PRÁCTICO N° 9

LA ARTICULACIÓN ENTRE TEORÍAS

NOMBRE: 
1. Lea detenidamente el texto
2. Cuál es el eje central del texto.
3. Identifique la restricción que tiene “la articulación entre teorías”
4. Por qué podemos decir que la articulación de teorías le cerró el paso a la teoría evolutiva. Explique del eclipse de darwinismo.
5. En qué sentido podemos decir que la articulación entre teorías, no sólo amenaza a las teorías nuevas, sino también al conocimiento anterior.
Un aspecto relacionado con la puesta a prueba (contrastación) de teorías es el relativo a cómo se articula lo que sostiene una teoría con lo que sostienen las demás.
En el marco de una ciencia que presupone el orden en la naturaleza, al menos en lo referente a poder dar cuenta de los fenómenos naturales mediante regularidades, suele esconderse un presupuesto de mucha importancia. Se trata de la presuposición de que la naturaleza no tiene inconsistencias. Los fenómenos naturales pueden presentar diferentes aspectos que pueden ser abordados por las distintas disciplinas, pero de ninguna manera se espera que desde una disciplina se afirme algo que se niega desde otra. Es cierto que cuando observamos el movimiento aparente del sol podemos asociarlo con el movimiento de los girasoles “mirando” al sol, o bien podemos tomar detalle del mismo movimiento aparente del sol para decidir cuestiones sobre astronomía y así calcular otros aspectos relativos al movimiento de rotación terrestre. Lo que no puede ocurrir es que el estudio de los girasoles nos permita afirmar que el movimiento del sol es de 15 grados en cada hora y que el estudio de la rotación terrestre nos arroje una cifra diferente.
En esto tan sencillo consiste la suposición de que la naturaleza es una sola, más allá de que las distintas disciplinas enfoquen diferentes aspectos de los fenómenos.
Dicho de este modo se hace evidente que las teorías sobre girasoles y las teorías sobre rotación terrestre tendrán necesariamente algunos puntos de contacto, al menos en cuanto al movimiento del sol a lo largo del día. Una teoría no puede dar como consecuencia una afirmación diferente que la otra al tratar sobre un mismo aspecto del mundo. Esta restricción hace que cada teoría nueva no solamente enfrente los datos disponibles como marco de contrastación sino también que enfrente al resto de las afirmaciones aceptadas hasta el momento, afirmaciones que provienen de otras teorías.
Pasemos entonces a un caso más sofisticado, y además, real. En ocasión de presentar su teoría sobre la evolución biológica, tanto Darwin como Wallace proponían que las especies no habían sido creadas por Dios sino que unas provenían de otras por medio del mecanismo de variedad y selección natural. En cada generación aparecía un rango de variación para cada característica (por ejemplo, diferente largo de cuello en los antecesores de las jirafas). Dada esta variedad y las condiciones ambientales en las que esos animales vivían (hábitat) algunas de las variedades de ciertas características estarían favorecida frente a otras que estaban en inferioridad de condiciones (los animales de cuello más largo alcanzarían más alimento de los árboles que las de cuello corto). Así, algunos individuos de cada generación estaban favorecidos en ése ambiente y otros estaban relativamente en problemas. De este modo los más favorecidos vivirían más, tendrían más prole y al cabo de varias generaciones era esperable que la población tuviera mayor frecuencia del rasgo favorecido. Al cabo de mucho tiempo, incluso era esperable que los individuos ya no pudieran asociarse con la especie original. En ese caso el proceso de selección natural había dado como resultado una evolución de una especie a otra (una especiación).
Claro está que esto no ocurría en poco tiempo sino a lo largo de miles o millones de años. Y allí estaba la clave de la teoría evolutiva. Una vez que la vida aparece en el planeta, el proceso de selección natural mediante la presión de selección en cada generación con una variedad de rasgos daría como resultado cambios aparentemente drásticos que vistos en detalle, podrían mostrar un registro gradual Ahora bien, la pregunta crucial no se hizo esperar: ¿cuántos miles o millones de años habían sido necesarios para que, partiendo de unos seres vivos muy primitivos, hubiésemos llegado a tener en el planeta la diversidad que hoy encontramos? La respuesta evolutiva era que aproximadamente el proceso había llevado entre 4 y 5 millones de años. Bien, tenemos el panorama biológico completo. Ahora consultemos a los geólogos para saber cuál es la edad de la Tierra.
La geología de la época de Darwin y Wallace tenía las siguientes herramientas para decidir sobre la cuestión. La Tierra se había formado con el sistema solar como un cuerpo incandescente y desde su formación se había comenzado a enfriar. Para calcular desde hacía cuánto tiempo se había estado enfriando, el cálculo era sencillo. Sabiendo que toda esta masa incandescente había llegado a unos 23 grados centígrados de temperatura global, podían calcular que el proceso había llevado menos que 3,5 millones de años. Así como podemos saber hace cuánto tiempo se apagó una hoguera si al acercar la mano a las piedras que la rodean las sentimos tibias, así mismo los físicos y los geólogos hacían la cuenta de cuánto tiempo la Tierra llevaba enfriándose. Se debe agregar, claro está, que el sol agrega una cantidad de energía por día y que la Tierra absorbe parte de esa energía y la vuelve a irradiar al espacio. Con todos los cálculos la teoría física les daba a los geólogos el dato de la edad de la Tierra.
Malas noticias para Darwin y para Wallace. No había habido tiempo para que la vida evolucionara de acuerdo con los procesos que ellos proponían. La teoría de la evolución ya tenía un problema con el registro fósil porque que no se encontraban los fósiles que según la teoría deberían haber estado allí. Pero esta dificultad podía sobrellevarse con argumentos adicionales. Si no encontramos fósiles de las especies intermedias que se supone que existieron entre unas y otras ya conocidas, esto se debe a que en los procesos de especiación las especies intermedias no están bien adaptadas y son pocos los individuos que componen esas poblaciones. Una vez que los individuos comienzan a tener los rasgos de la nueva especie bien adaptada entonces la población crece en número y vuelve a haber una gran cantidad de fósiles de la nueva especie. De este modo los peldaños faltantes (incluido el famoso “eslabón perdido”) pueden ser explicados por los mismos procesos que la teoría propone. Sin embargo ahora enfrentaba un problema diferente. Según la teoría biológica la tierra era más antigua de lo que los propios geólogos sostenían. Pues bien, los geólogos podían equivocarse, pero sobre la base de cuáles argumentos podemos afirmar que se equivocan si solo están utilizando las fórmulas bien conocidas del enfriamiento de sólidos, líquidos y gases (contando los océanos y el aire). La teoría evolutiva se enfrentaba entonces a las teorías físicas del calor y a las teorías geológicas sobre la edad del planeta. El resultado fue sencillo, la biología perdió la batalla en ese momento y sumado a otras dificultades, sobrevino lo que algunos autores han llamado “el eclipse del darwinismo”.
En realidad la física o la geología no ofrecía un dato sino que arrojaba como consecuencia una afirmación. Esta afirmación se obtenía de todos los cálculos y conjeturas utilizadas para comprender el proceso de enfriamiento del planeta. Si algo estaba mal, el resultado no sería confiable.
Hubo que esperar al descubrimiento de la radiactividad para darse cuenta de que aquellos cálculos que le cerraron el paso a la teoría evolutiva, estaban mal. La tierra contiene suficiente material radiactivo como para que el proceso de enfriamiento sea mucho más lento que lo que se espera de un cuerpo que solo cede calor sin generarlo. Los elementos radiactivos son una fuente de calor adicional de modo que si la tierra comenzó como un cuerpo incandescente y al cabo de cierto tiempo debería haberse enfriado hasta tener la temperatura que registramos hoy, al tener en cuenta que la radiactividad agrega energía, caemos en la cuenta de que la tierra lleva muchos más años enfriándose. De no haber tenido esta fuente extra de calor, el cálculo estaba muy bien. Pero no conocíamos un factor crucial para el cálculo. Imagine por un momento que las piedras de la hoguera tienen una batería interior que las mantiene caliente durante días y días a pesar de que la hoguera se apagó. Esta situación haría confundir a cualquiera que quisiera evaluar el momento en que se apagó la hoguera.
La moraleja de este episodio histórico es doble. Por un lado la articulación teórica es una barrera tan difícil de franquear que las nuevas teorías podrían fracasar incluso a pesar de tener mejores predicciones que las teorías con las que se enfrentan. El problema es que la edad del planeta no se estaba calculando sobre la base de la evolución sino sobre la base de conocimientos más afianzados en la comunidad. La teoría de la evolución no fue diseñada para evaluar la edad del planeta, aunque podría haberse usado para fijar una edad mínima, en cambio parecía que la geología y la física del calor eran las disciplinas más adecuadas para la tarea. Por otra parte la articulación de teorías podría muy bien ser un arma de doble filo y mostrar que el conocimiento aceptado hasta el momento debe ser puesto en duda. En este sentido la articulación no solo amenaza a las teorías nuevas sino al conocimiento anterior. 
PROFESOR: EDUARDO CAÑUETO

FILOSOFÍA E HISTORIA DE LA CIENCIA Y LA TECNOLOGÍA CLASE 27/10/2017

CUATRO PARADIGMAS BÁSICOS SOBRE LA NATURALEZA DE LA CIENCIA

EL POSITIVISMO:
Es la corriente que sostiene que el único conocimiento válido es el conocimiento científico, y a su vez aquel conocimiento que se puede someter al método científico. Entonces se dice de un monismo metodológico, porque todas las ciencias se someten a un mismo método, el método de las ciencias naturales. Su fundador es A. Comte en el s XIX. A comienzos de S XX surge una nueva versión de esta corriente, conocida como Neopositivismo o Positivismo Lógico. En los años treinta Reichenbach estableció explícitamente que la tarea a realizar por los epistemólogos era la reconstrucción lógica. Según Reichenbach, los filósofos de la ciencia no tienen por qué ocuparse de cómo se llega a producir el descubrimiento científico (su génesis), sino de los resultados finales de la investigación científica expresados en artículos o libros (hechos descubiertos, teorías elaboradas, métodos lógicos empleados y la justificación empírica de las consecuencias y predicciones derivadas de las teorías). Con esta distinción, los epistemólogos positivistas no se ocuparán de los procesos científicos reales, sino que elaborarán exclusivamente sus reconstrucciones lógicas. Desde esta perspectiva la filosofía de la ciencia se convierte en una metaciencia (una ciencia de la ciencia), concentrando su objeto de estudio exclusivamente en el conocimiento elaborado. El positivismo se caracteriza por estas ideas básicas: a) hacer hincapié en la verificación de la hipótesis (o falsabilidad);  b) cultiva en exceso la observación; c) no busca las causas en la naturaleza, sino más bien las regularidades en la misma; d) se opone radicalmente a la metafísica.
Para los positivistas la ciencia progresa en la medida en que las teorías pueden predecir y explicar más que sus predecesoras
EL RELATIVISMO: 
El relativismo considera a la ciencia ante todo una actividad social y humana, una más de las emprendidas por la humanidad para lograr conocimientos sobre el mundo, y, por tanto, se la contempla como una vía más de conocimiento, ni exclusiva ni excluyente de otras distintas, pero igualmente válidas para dicho fin. Por la consideración e importancia concedida a los aspectos personales (intereses, creencias propias, etc.) y contextuales (sociales, relacionales, políticos, económicos, etc.) y su influencia en la generación del conocimiento científico (el contexto de descubrimiento), el relativismo ha sido tildado de introducir aspectos psicológicos y subjetivos en la epistemología de la ciencia. La tesis básica del relativismo sostiene el falibilismo extremo de la ciencia (y, en general, de cualquier forma de conocimiento humano): las pruebas, especialmente las empíricas, no son decisivas para conformar las verdades científicas; es decir, las afirmaciones sobre el mundo no provienen exclusivamente de los datos observacionales.
El primer argumento se refiere a la carga teórica inherente a todo protocolo de observación por empírico que éste sea, de ahí que todo el conocimiento científico sea en el fondo teoría, o viene precedido por ella. El segundo argumento, referente a la falta de validez del principio de inducción, sólo se puede acceder a un número finito de observaciones y la lógica demuestra la existencia de un gran número de hipótesis compatibles con un conjunto finito de observaciones, que incluso pueden ser contradictorias entre sí. Esta relativización del poder de las pruebas para validar el conocimiento se sitúa en el extremo opuesto del positivismo, que las considera incontrovertibles y el único criterio posible para la contrastación de las teorías. El tercer argumento relativista insiste en el carácter convencional de las pruebas empíricas. En primer lugar, toda observación se codifica en un lenguaje que es una convención más y, en segundo lugar, la decisión de aceptar un registro de observación como verídico es también convencional. La conclusión es que toda observación supone convenciones y si éstas no son ni verdaderas ni falsas (simplemente se aceptan o no), cualquier observación tampoco lo será, por lo cual difícilmente podrá servir para hacer una falsación, contrastación o verificación de una teoría, lo que constituye la expresión máxima del anarquismo metodológico. En suma, para el relativismo la actual posición de predominio de la ciencia, la tecnología y la tecnociencia no puede entenderse solamente mediante el análisis de sus respectivas naturalezas desde un punto de vista interno, sino que requiere también la comprensión de la sociedad que les da el prestigio que han alcanzado. Consecuentemente, los relativistas concluyen que el progreso y el cambio de teorías en la ciencia no es un proceso absolutamente racional, sino que se produce dentro del juego normal de intereses, motivaciones y preocupaciones propios de cualquier actividad humana, con lo que establecen una base social (contextualismo), cuando no individual (subjetivismo), en la determinación del progreso científico.
EL REALISMO: 
Habitualmente se suele denominar así a la posición que se basa en la existencia de algún tipo de correspondencia entre las creencias sobre el mundo y éste mismo. Los planteamientos realistas más duros parten de considerar que el objetivo de la ciencia es buscar teorías verdaderas según un criterio de racionalidad, representado por la superación de muchos intentos de falsación, es decir, de demostrar que la teoría falla. Desde este punto de vista, se hace de la verdad un objetivo de la ciencia y no un atributo de las teorías científicas. Sobre la base de este exigente criterio, el realismo tradicional adopta una posición reduccionista y cientifista en cuanto considera que la ciencia es el único camino válido para el conocimiento (criterio de demarcación entre lo que es y no es ciencia), por ser el que se enfrenta explícitamente con su falsación.
EL PRAGMATISMO: 
El pragmatismo se fundó en los EE.UU. por C.S. Peirce en el siglo XIX. Este filósofo reemplaza verdad por método, lo que garantiza la objetividad científica; la verdad es lo que el método científico establece, si la investigación continúa el tiempo suficiente. Peirce niega el principio de correspondencia como criterio de verdad, que es propio del realismo metafísico y del realismo científico. También afirma que algo es real cuando una comunidad de científicos acaba poniéndose de acuerdo en su existencia. Para Peirce el progreso en el conocimiento científico depende del mayor o menor grado de proximidad a los fines de la ciencia. Las posiciones pragmatistas, se caracterizan por considerar la ciencia un instrumento cuyo objetivo es producir teorías capaces de superar contrastes empíricos más exigentes, lo que las hace más fiables


SUCESIÓN DE TEORÍAS EN BIOLOGÍA

Una teoría científica se basa en una gran cantidad de datos y observaciones que se han recopilado en el curso del tiempo

El desarrollo de una teoría científica: la evolución y la selección natural
A veces, se calumnia a la teoría de la evolución por la selección natural cuando se dice que se trata de una especulación sobre el origen de las formas de vida moderna propuesta por Charles Darwin. Sin embargo, la teoría evolutiva no es una especulación
Sus ideas se fundamentan en más de un siglo de investigaciones científicas que le antecedieron.
La investigación sobre los orígenes y la diversidad de la vida proliferaron en los siglos XVII y XIX:
1. Carlos Linneo un botanista sueco, cristiano devoto que creía en el concepto de la inmutabilidad o fijeza de las especies, en su obra Systema Naturae, de 1735 sugirió que las especies estaban relacionadas, por lo que desafió sin quererlo la noción de la inmutabilidad, por la cual cada especie está creada en una forma única e ideal.
2. A principios del siglo XVIII, Georges-Louis Leclerc, un naturalista francés, y James Hutton, un geólogo escocés, empezaron a desarrollar ideas nuevas sobre la edad de la Tierra. En esa época, mucha gente creía que la Tierra tenía 6,000 años, basándose en la estricta interpretación de los hechos detallados en el Viejo Testamento. Leclerc emitió la hipótesis de que la Tierra nació como una bola de roca hirviente, encendida y líquida cuya composición consistía sobre todo de hierro. Leclerc usó la velocidad del enfriamiento del hierro para calcular que la Tierra debía de tener, por lo menos 70,000 años para haber podido alcanzar su temperatura actual. Hutton se acercó al mismo tema pero desde otra perspectiva, observando cerca de su casa en Escocia las relaciones entre las formaciones de diferentes rocas y las velocidades de los procesos geológicos modernos. Se dio cuenta que los procesos relativamente lentos de la erosión y sedimentación no podían crear en solo unos cuantos miles de años todas las capas de roca expuestas. Hutton sugirió, sobre la base de su exhaustiva recopilación de datos, que la Tierra era mucho más antigua que la historia de la humanidad: cientos de millones de años
3. Cuvier (1795) empezó a trabajar en el Museo Nacional de Paris como naturalista y anatomista se interesó en los fósiles que se encontraban cerca de Paris, que alguna gente creía eran los restos de los elefantes que Hannibal usó para cruzar los Alpes cuando invadió Roma en el 218 a. C. En su estudio de los fósiles y de las especies vivas, Cuvier documentó diferentes patrones en la estructura dental y en el número de dientes de los fósiles y los elefantes modernos. Basándose en estos datos, Cuvier planteó la hipótesis de que estos restos no eran los de Hannibal sino que eran de una especie diferente de animal que había deambulado por Europa y que se había extinguido hacia miles de años: el mamut. si todos los organismos estaban basados en una forma perfectamente adaptada e ideal, ¿cómo podían dejar de existir? Eso sugeriría que ya no era ideal. Cuvier creía que cada parte de un organismo era un componente único y esencial de todo el organismo. Si una parte cambiaba, él creía que el organismo no podía sobrevivir
4. Lamarck, contemporáneo de Cuvier, estaba convencido de que los organismos podían, en realidad, cambian con el tiempo. Lamarck propuso que los cambios que ocurrían durante la vida de un organismo podían trasmitirse a su descendencia y sugería que, por ejemplo, los hijos de un culturista heredarían sus músculos. A pesar de que algunas de sus ideas fueron desacreditadas, Lamarck dio un respaldo a la teoría evolutiva, que otros utilizarían y ampliarían.
5. A principios del siglo XIX, un geólogo y explorador de canales británico, William Smith, añadió otro componente a la acumulación de la evidencia de la evolución. Smith observó que las capas de rocas expuestas en diferentes partes de Inglaterra se parecían: estas capas (o estratos) estaban ordenadas predeciblemente y cada capa contenía grupos distintos de fósiles. A partir de esta serie de observaciones, él desarrolló la hipótesis de que grupos específicos de animales aparecen uno detrás de otro en una secuencia definida durante la historia de la Tierra y esta secuencia se puede ver en las capas de las rocas
6. Charles Darwin hizo su entrada en este ambiente: Linneo había desarrollado una taxonomía de organismos basándose en sus relaciones físicas, Leclerc y Hutton demostraron que el transcurso del tiempo en la historia de la Tierra era suficiente como para que los organismos pudiesen cambiar, Cuvier demostró que algunas especies de organismos se habían extinguido, Lamarck propuso que los organismos cambian con el trascurso del tiempo, y Smith estableció una cronología de la aparición y desaparición de diferentes organismos en los récords geológicos. Desde 1831, Charles Darwin recopiló datos durante su trabajo de naturalista en el HMS Beagle. Tal vez, lo más conocido que hizo fue estudiar abundantemente los animales de las islas Galápagos y notar que las especies de tortugas, sinsontes y pinzones tenían sutiles diferencias que las hacía adaptarse fácilmente a su ambiente. Pero esta idea no se basaba solo en su trabajo, también en la acumulación de las pruebas y las ideas de muchos otros científicos anteriores. Su propuesta contenía y explicaba muchos de los indicios y trabajos anteriores y por lo tanto formaba la base de una teoría científica nueva y sólida sobre el cambio de los organismos: la teoría de la evolución por selección natural


TEORÍA DE LA SELECCIÓN NATURAL: 
Esta teoría establece que existen variaciones en los organismos de las mismas especies. Unos son largos, otros son cortos, unos tienen bocas más grandes, otros visión más aguda, etc. Los organismos que están bien dotados para vivir en un determinado medio ambiente tienen más posibilidades de sobrevivir. Los sobrevivientes producen la siguiente generación, la cual es muy factible que herede las características de sus padres (como visión aguda, etc.)
A continuación los puntos principales de la teoría de selección natural:
Cada quien es diferente: Existen variaciones entre individuos de la misma especie (mejor visión, más plumaje, patas más largas, etc.)
Los recursos son limitados: Recursos tales como alimento y refugio son limitados.
Muchos críos: Los organismos producen más recién nacidos (jóvenes) que los que realmente pueden sobrevivir al medio ambiente.
Los organismos compiten: Los organismos compiten por alimento y otros recursos del medio ambiente.
Sobrevive el más "apto": los organismos cuyas variantes se ajustan mejor al medio ambiente son los más propensos a sobrevivir, reproducirse y legar características a la siguiente generación.


PROFESOR: EDUARDO FRANCISCO CAÑUETO

viernes, 15 de septiembre de 2017

TRABAJO PRÁCTICO N° 8

ALGUNOS ASPECTOS FILOSÓFICOS: “TEORÍA DEL CONOCIMIENTO”

Reseña histórica.
Si bien es cierto que la teoría del conocimiento, no existe como disciplina independiente en la filosofía griega y en la filosofía medieval, no es menos cierto que tanto en la etapa de la filosofía antigua como en la edad media, encontramos múltiples reflexiones acerca del problema de la "Teoría del conocimiento", llamada también "Epistemología" (de la palabra griega "episteme", que significa conocimiento), o "gnoseología" (del término griego "gnosis" que significa también conocimiento). En dichas épocas del pensamiento filosófico, el problema de la teoría del conocimiento está inserta en los textos referentes a los problemas ontológicos y psicológicos. Esto tiene lugar en forma especial en Platón y en Aristóteles.
En la Edad moderna, la teoría del cocimiento aparece como disciplina autónoma. Como fundador de ella podemos indicar a J. Locke (1632 – 1704), con su obra "Ensayo sobre el entendimiento humano" aparecida en 1690. En ella Locke habla de la esencia y la certeza del conocimiento humano. Leibnitz (1646 – 1716), refuta la doctrina de Locke en su obra "Nuevos ensayos sobre el entendimiento humano", obra póstuma aparecida en 1765. En Inglaterra prosigue la investigación acerca del conocimiento humano, Berkerley (1685 – 1753), con su obra "Tratado de los principios del conocimiento humano", aparecida en 1710.
David Hume (1711 – 1776), publica dos obras referentes al problema del conocimiento humano: "Tratado de la naturaleza humana" en 1740 e "Investigación sobre el entendimiento humano", en 1748.
En 1781, Manuel Kant (1724 – 1804), publica su obra "Crítica de la razón pura", que es considerada como su obra maestra en el campo epistemológico.

Análisis del conocimiento y planteamiento del problema.
Los elementos que intervienen en el acto de conocer son: el sujeto cognoscente y el objeto conocido.
¿Cuál es el rol que cada uno de dichos elementos juega en el acto de conocer? El sujeto capta al objeto mediante la imagen, o el objeto imprime su imagen en el sujeto.
De la relación existente entre el sujeto y el objeto, surgen los siguientes problemas:
a) La posibilidad de conocimiento: el sujeto ¿puede realmente aprehender el objeto?
b) Origen del conocimiento: Este ¿proviene de los sentidos de la inteligencia o de ambos a la vez?
c) Esencia del conocimiento: ¿Cuál de los elementos recién nombrados juega el rol preponderante en la elaboración del conocimiento?
d) Criterio de verdad: ¿Cuál es el criterio que se puede adaptar para asegurar la verdad del conocimiento?

a) Posibilidad del conocimiento.
Dogmatismo: Es la actitud epistemológica para la cual no existe el problema de la posibilidad del conocimiento. Da por hecho que el sujeto puede conocer sin dificultad al objeto. El dogmatismo, en el sentido epistemológico, no se debe entender despectivamente. Es una actitud que no tuvo problema acerca de la posibilidad del conocimiento y aceptó simplemente dicha posibilidad.
Escepticismo: Este sistema gnoseológico niega la posibilidad de que el sujeto cognoscente pueda captar el objeto conocido. El conocimiento, como aprehensión real del objeto por el sujeto, es imposible. De lo cual resulta que no podemos emitir juicio alguno.
Hay diferentes clases de escepticismo. El escepticismo que niega la posibilidad del conocimiento en general, recibe el nombre de escepticismo absoluto o radical. Cuando el escepticismo niega la posibilidad de un determinado conocimiento, recibe el nombre del conocimiento cuya posibilidad niega. Así, por Ej. , existe el escepticismo metafísico, en cuanto niega la posibilidad del conocimiento metafísico. Asimismo, se habla del escepticismo ético y del religioso, pues niega el conocimiento de lo moral y el conocimiento religioso respectivamente. Finalmente, existe el escepticismo sistemático y el escepticismo metódico. El primero niega la posibilidad del conocimiento por principio, sistemáticamente. El segundo lo hace por método: pone en duda lo que naturalmente nos presenta el conocimiento, para separar de esta manera lo verdadero de lo falso y llegar así al saber absolutamente seguro.
El escepticismo absoluto es imposible. Ya San Agustín arguyó de la siguiente manera contra los escépticos: "No temo los argumentos de quienes dicen: ¿Y si te engañas? Si me engaño soy. Quien no es, no puede siquiera engañarse; y por eso, si me engaño, soy".
 "Así, pues, ya que soy yo que me engaño, ¿cómo puedo engañarme de que soy, si es cierto que soy yo que me engaño? Puesto que fuera yo quien se engañase aun cuando yo me engañara, no me engañaría en cuanto a saber que soy".
El escepticismo absoluto es evidentemente falso, pues se contradice abiertamente. Al afirmar que el conocimiento es imposible, con eso mismo expresa un conocimiento.
Pragmatismo: El pragmatismo epistemológico reemplaza el concepto de la verdad, que deriva de la correspondencia entre el pensamiento y el objeto, substituyéndolo por el concepto de lo útil. La verdad para el pragmatismo significa lo valioso y lo útil para la vida.
El pragmatismo se enraíza en el peculiar concepto referente a la naturaleza humana. Para dicha corriente filosófica, el hombre no es un ser pensante, sino un ser de voluntada y acción. El intelecto, como lo observa Essen, no es dado al hombre, según el pragmatismo, para investigar y conocer la verdad; sino para poder orientarse en la realidad. L a verdad consiste básicamente, según el pragmatismo, en lo útil y provechoso de la conducta humana.
El error básico del pragmatismo reside en el desconocimiento y la negación de la autonomía del pensamiento humano. Si bien es cierto que el pensamiento humano tiene estrecha relación con las diferentes realidades de la vida y que sufre influencia profunda de las demás vivencias psíquicas, no es menos cierto, que el pensamiento humano tiene su propio campo de acción y no puede ser reducido a la mera función de lo útil en la vida humana.

b) Origen del conocimiento.
En éste nuestro enfoque acerca del origen del conocimiento, partiremos de un juicio por todos conocidos: "Los metales se dilatan con el calor". Analicemos lo que nos suministra nuestra propia experiencia acerca del origen de este juicio. En la formación de este juicio intervienen ante todo, nuestros sentidos. En efecto, mediante el sentido del tacto obtenemos la sensación de calor y mediante la vista verificamos la dilatación del metal. Pero al mismo tiempo percibimos una relación, o sea una conexión entre la acción del calor y el hecho de que el metal se dilate. La dilatación sigue a la acción del calor, a saber, es causada por el calor.
Vemos, pues, que en la formación del juicio: "los metales se dilatan por el calor", intervienen dos elementos: uno proveniente de los sentidos y el otro del pensamiento. Surge, pues, el problema, ¿cuál de estos elementos es definitivo en la formación del juicio mencionado? En otras palabras, ¿dónde tiene su origen el conocimiento? ¿Acaso en la experiencia que proporcionan los sentidos o en los elementos que elabora el pensamiento? Además, procede esta otra pregunta: ¿En cuál de los elementos citados se funda la validez del conocimiento? Las respuestas a estos problemas fueron muy diferentes a lo largo de la historia del pensamiento filosófico.
Empirismo. Sostiene que la única fuente del conocimiento humano son los sentidos, es decir, la experiencia sensible. Según el empirismo, el espíritu no aporta nada en la elaboración del conocimiento, pues, es una especie de hoja en blanco en la cual es la experiencia la que escribe. Todos los conceptos aún los más generales y abstractos son, por lo tanto, fruto de la experiencia sensible.
Ahora bien, la experiencia sensible puede ser externa e interna, según qué clase de sentidos intervienen en su realización. Existe una forma de empirismo llamada sensualismo, que admite como única fuente de conocimiento la experiencia de los sentidos externos. El filósofo francés Condillac (1715 – 1780), es su representante.
Esta actitud epistemológica tiene sus proyecciones en el campo metafísico. En efecto, si todo el conocimiento se reduce a la experiencia sensible, no se podrá llegar jamás al conocimiento suprasensible, capaz de aprehender realidades suprasensibles o espirituales. El empirismo epistemológico lleva, necesariamente al escepticismo metafísico.
Racionalismo. La fuente única del conocimiento humano, según el racionalismo es la razón. El conocimiento cobra validez si es lógicamente necesario y universalmente válido. Solamente cuando emitimos un juicio acerca de algo que tiene que ser así, siempre y en todas partes, y no puede ser de otra manera, solamente entonces tenemos un juicio verdadero. Así, los siguientes juicios cumplen con estas exigencias: "El todo es mayor que una parte". "Todo efecto tiene una causa". En ambos casos vemos que tiene que ser así y no de otra manera. En efecto, sostener que una parte del todo sea mayor que el todo, equivale a la contradicción de la razón consigo misma.
 Los juicios mencionados poseen, pues, una necesidad lógica y una validez universal.
Carecen de estas características los juicios provenientes de la experiencia. Tales como: "los metales se dilatan con el calor", "el agua hierve a 100°", etc. Existe la posibilidad que suceda diferente. Pues, no encierran en sí una necesidad lógica. Los juicios que se basan en la experiencia tienen solamente validez hasta donde pueden ser comprobados. Su validez, por lo tanto, es limitada.
No sucede lo mismo, sostiene el racionalismo, con los juicios que se basan en la razón. En efecto, el juicio: "El todo es más grande que una parte de él", no se apoya en la experiencia, sino tiene su fundamento en la razón: es lógicamente necesario y universalmente válido. De donde resulta, que el verdadero conocimiento tiene su fundamento único en la razón.
El origen del racionalismo se encuentra fácilmente en los cultivadores de las ciencias matemáticas, por ser este conocimiento predominantemente conceptual y deductivo. Los principales representantes del racionalismo fueron en la Antigüedad: Platón (427 – 347) y Plotino (205 –270). En la Edad Moderna: Descartes (1596 – 1650), Malebranche (1638 – 1715), y Leibnitz (1646 – 1704).
El mérito principal del racionalismo está constituido por el hecho de destacar el factor racional en el conocimiento humano. Pero, al pretender establecer la razón como fuente única del conocimiento humano, cae en el exclusionismo, del cual a su vez deriva su posición dogmática. Sin duda, el racionalismo, por operar con conceptos suprasensibles abre el camino hacia las verdades metafísicas.

c) Esencia del conocimiento humano.
Las teorías epistemológicas que procuran determinar la esencia del conocimiento son muchas. Nos detendremos brevemente en dos: El Idealismo y el Realismo.
El Idealismo. Ante todo hay que dejar en claro la distinción neta entre el idealismo metafísico y el idealismo epistemológico.
Llamase idealismo metafísico al sistema filosófico que sostiene que el fundamento de toda realidad son las fuerzas espirituales o potencias ideales.
El Idealismo epistemlógico sostiene la prioridad del pensamiento sobre lo real. La conciencia constituye el mundo de lo real. Al suprimir los objetos reales deja solamente los contenidos de la conciencia. Atendida esta exposición, la crítica que suele presentarse al idealismo es la siguiente:
a) El idealismo es, ante todo, una actitud del todo gratuita; pues, asevera sin pruebas que el objeto del pensamiento no puede ser sino el pensamiento; que el acto de conocimiento, por ser una acción inmanente, no puede asir otra cosa que no sean estados interiores, a saber, estados de conciencia. Esta afirmación es ambigua. Es cierto que el pensamiento no capta sino objetos de pensamiento; pero, decir "objetos de pensamiento" no equivale necesaria ni idénticamente a estado interior de conciencia.
b) El idealismo, si se lo examina a fondo es indefendible, pues conduce inevitablemente al solipsismo, según el cual un más allá del pensamiento es impensable, porque el acto de conciencia no puede salir de su propia interioridad; el ser se confunde con el percibir.
El Realismo. Esta actitud epistemológica acepta la existencia de las "cosas reales" fuera de la conciencia. La prioridad del objeto sobre el sujeto. Esto último se puede entender de diferentes maneras y de ello proceden las diferentes clases de realismo.
a) Realismo Indirecto.- en esta actitud epistemológica, la prioridad del objeto respecto del sujeto significa principalmente la parte de pasividad que nuestro conocimiento comporta en razón de la receptividad sensible. El conocimiento, afirma dicho sistema, que nosotros adquirimos de las cosas, es a base de sensaciones pasivamente recibidas. Estas de suyo son objetivas, pues, ellas son asidas por la conciencia como un efecto, de la acción de los objetos que actúan como causas.
b) Realismo Inmediato.- esta actitud excluye la noción de causalidad cuando se trata de la prioridad del objeto respecto del sujeto y le da un sentido mucho más amplio. La prioridad del objeto significa para el realismo inmediato el punto de partida del conocimiento humano. Más exactamente, a la base de nuestras nociones abstractas y de nuestras afirmaciones, hay una presencia de lo real delante de la conciencia. Esto real inmediatamente presente, es sin duda, el real sensible, captado por los sentidos; mas este real es al mismo tiempo inteligible, y como tal, presente a través de los sentidos, a la conciencia intelectual.
Según ese realismo inmediato, no se niega que la conciencia humana aporta en la elaboración final del conocimiento una parte considerable. La presencia inmediata no es más que un catalizador del proceso cognitivo. En el realismo inmediato se acentúa, ante todo, la dualidad sujeto-objeto inherente a todo acto del conocimiento humano. Nos pone el sujeto frente al objeto; destaca la prioridad del objeto respecto del sujeto y pone en evidencia la actitud activa de la conciencia en el acto de conocer. 
d) Criterio de la verdad.
¿Qué tiene que pasar para que un portador de verdad sea verdadero? Tenemos distintas teorías
a) Teoría correspondentista de la verdad. La verdad es la correspondencia con la realidad objetiva. Verdad es lo que corresponde a los hechos; o sea, lo que de veras es al caso. La verdad es calidad de las declaraciones que corresponden con los hechos y la realidad objetiva. Una proposición o significación es verdadera si hay un hecho al que corresponda, si expresa lo que ocurre o es el caso. Una declaración verdadera corresponde a la realidad. Una sentencia es verdad sólo en el caso de que exprese una condición de asuntos en el mundo. Ejemplo: La expresión o sentencia "Está lloviendo aquí ahora", es verdadera si en realidad está lloviendo aquí y ahora; si no está lloviendo aquí y ahora, es falsa. 
b) Teoría coherentista de la verdad. La verdad es lo que concuerda con toda idea reconocida. La verdad es la coherencia sistemática. Una creencia es verdadera, en la medida en que forma parte de un sistema de creencias. Esa coherencia es algo más que la consistencia lógica. Es una declaración que cuadra con otras declaraciones que conozco que son la verdad. 
c) Teoría pragmática de la verdad. La verdad consiste en la congruencia de los pensamientos con los fines prácticos del hombre, en que aquellos resulten útiles y provechosos. Verdad es lo que funciona en nuestras vidas. Verdad es todo aquello que funciona en mi vida para atraer la felicidad y ayudarme a sobrevivir en el mundo. Si me ayuda a adaptarme a mi ambiente y a sobrevivir, es verdad. El hombre no es un ser pensante o teórico, sino un ser práctico, un ser de voluntad y de acción.

COMPRENSION DEL TEXTO
En pequeños grupos (máximo 3), responder y entregar una copia al profesor.
NOMBRES: 
1.- ¿A quién se puede mencionar como fundador de la teoría del conocimiento?
2.- Nombre una obra escrita por J. Locke.
3.- Nombre una obra escrita por M. Kant.
4.- ¿Qué elementos intervienen en el acto de conocer?
5.- ¿Qué problemas surgen de la relación del sujeto con el objeto?
6.- ¿Qué es el dogmatismo?
7.- ¿Qué es el escepticismo?
8.- ¿Qué es la verdad para el pragmatismo?
9.- ¿Cuál es la fuente del conocimiento humano según el empirismo?
10.- ¿Cuál es la fuente del conocimiento humano según el racionalismo?
11.- ¿De qué depende la validez del conocimiento según el racionalismo?
12.- ¿Dónde se puede encontrar el origen del racionalismo?
13.- Nombre algunos filósofos racionalistas.
14.- ¿Qué se entiende por Idealismo metafísico?
15.- ¿Qué se entiende por Idealismo epistemológico?
16.- ¿Qué se entiende por realismo?
17.- ¿Qué expresa la teoría de la verdad correspondentista?
18.- ¿Qué expresa la teoría de verdad coherentista?
19.- ¿Qué sostiene el la teoría pragmatista de la verdad?
20. ¿Qué enseñanza le deja esta lectura?
21.- Arme un glosario con las palabras que desconozca 


PROFESOR: EDUARDO F. CAÑUETO

martes, 12 de septiembre de 2017

TRABAJO PRÁCTICO N° 7

DOS MODELOS: HIPOTÉTICO DEDUCTIVO Y DE EXPLICACIÓN NOMOLÓGICO DEDUCTIVO

NOMBRE:
1. Lea detenidamente el texto
2. Identifique la investigación de Eijkman: 
a. Realice una serie de afirmaciones estableciendo el método hipotético deductivo, hasta construir su tesis central, con al menos dos hipótesis refutadas. 
b. Realice una serie de afirmaciones y explique con el modelo nomológico-deductivo por qué se curaron los pollos del hospital afectados de beriberi al cambiarlos de ubicación. 
c. Siguiendo el mismo esquema, expliqué por qué en la prisión XX el porcentaje de pacientes afectados de beriberi es mayor que en la prisión YY
3. Identifique la teoría central de Grijns:
a. Realice una serie de afirmaciones estableciendo el método hipotético deductivo, hasta construir su tesis central, con al menos dos hipótesis refutadas
b. Realice una serie de afirmaciones y explique con el modelo nomológico-deductivo por qué veía la enfermedad como una carencia dietaria
En octubre de 1886, Christiaan Eijkman fue enviado a Java por el gobierno holandés para investigar el origen y la cura del beriberi (término utilizado por los nativos de Java para nombrar esta enfermedad; para ellos la palabra beri significa debilidad y al duplicarla se refuerza su significado). Esta es una enfermedad degenerativa cuyos principales síntomas son: cierta debilidad muscular, pérdida de peso y de sensibilidad, eventualmente parálisis de los miembros y agrandamiento del corazón. En esa época el 80 % de los pacientes de beriberi moría, y obviamente esto preocupaba al gobierno holandés.
Para ese entonces ya era una enfermedad bastante conocida. Varios investigadores que trabajaban en Asia intentaron explicar la enfermedad de diversas maneras: como un envenenamiento, como una infección o como el resultado de algún tipo especial de dieta.
Eijkman había estudiado con Robert Koch, quien sostenía que las enfermedades eran el resultado de organismos microscópicos que infectaban el cuerpo y, asimismo, había desarrollado un método para aislar y cultivar "bacterias" que facilitaba su identificación. Al ser los brotes de beriberi comunes en prisiones, naves y ejércitos - todas comunidades relativamente cerradas -, nada pareció extrañar a Eijkman, pues esto era típico de enfermedades infecciosas que se transmitían por algún germen. En consecuencia, luego de un año de trabajo creyó acertado afirmar que una bacteria causaba el beriberi. Sin embargo también descubrió un nuevo patrón de infección: mientras que en la mayoría de las enfermedades infecciosas bastaba una sola exposición al germen para el contagio, en este caso una persona debía residir varias semanas en un área de infección de beriberi para contraer esta enfermedad. Cabe destacar que aunque lo intentó no logró aislar la bacteria ni encontrar la forma de atacarla.
Tres años después y en medio de sus actividades en el hospital, Eijkman observó casualmente que los pollos del corral sufrían síntomas parecidos a los causados por el beriberi. Para estudiarlos en detalle los mudó a otro lugar, pero al poco tiempo los pollos se curaron sin tratamiento aparente. Cuando investigó qué factores habían cambiado en la nueva ubicación de los pollos, encontró al menos una diferencia: la dieta. El antiguo cocinero los alimentaba con arroz blanco pero en el nuevo hogar comían arroz con cáscara. En seguida Eijkman concluyó que el arroz blanco debía contener la bacteria que causaba la enfermedad. Rápidamente comenzó a experimentar con pollos sanos y enfermos a través del control de sus dietas y observó que pollos enfermos a los que se le agregaba cáscara de arroz en su alimentación se reponían. Esto lo llevó a pensar que en la cáscara de arroz debía haber un antídoto o agente neutralizante de la bacteria que causaba el beriberi, lo que explicaría también por qué no se contagiaban pollos sanos de pollos enfermos cuando los primeros comían arroz con cáscara.
Todavía le quedaba demostrar que el arroz blanco cumplía un rol importante en el proceso por el que los humanos contraían el beriberi. Para ello acudió a las prisiones donde podían encontrarse fácilmente registros de las dietas administradas. Dicho sea de paso, por esos años en Java había alrededor de 100 prisiones, donde según la costumbre se alimentaba a los prisioneros con arroz blanco, con arroz con cáscara o con una mezcla de ambos. Así pudo observar que en la medida en que la dieta de una prisión contenía más arroz blanco, mayor era el porcentaje de enfermos de beriberi encontrados allí.
De este modo, aunque no logró aislar la bacteria causante del beriberi, pudo al menos hallar su cura. Hacia 1910 muchas instituciones ya habían cambiado sus dietas que consistían principalmente en arroz blanco.
En Java, otro médico holandés, Gerrit Grijns sucedió a Eijkman en el hospital y continuó su investigación sobre el beriberi. A diferencia de éste, Grijns no creía que en el arroz blanco estuviera la bacteria causante de la enfermedad ni en el arroz con cáscara su cura. Sino más bien veía a la enfermedad como el resultado de una carencia dietaria; algún nutriente fundamental para el crecimiento estaría presente en la cáscara del arroz, por lo que al limpiarlo este desaparecería. Para comprobar que era la ausencia de cierta sustancia en el organismo lo que provocaba el beriberi buscó y encontró varios alimentos, además del arroz blanco, cuya exclusiva ingestión también provocaban la enfermedad; de igual manera encontró otros alimentos que la prevenían y curaban.
Paralelamente, en Europa los bioquímicos estaban investigando sobre dietas y nutrición. Frederick Hopkins en 1910 alimentó a un grupo de ratas con los ingredientes básicos que se consideraban esenciales en una dieta, sin embargo, los ratones dejaron de crecer; al agregarles una cantidad insignificante de leche por día comenzaron a crecer otra vez. En el mismo período varios científicos, trabajando de manera independiente, reconocieron que el beriberi, así como el escorbuto, el raquitismo y otras enfermedades similares se debían a alguna carencia esencial en la dieta. Casimir Funk llamó a estas sustancias "vitaminas".
En 1925 se aisló la sustancia cuya deficiencia provoca el beriberi: la tiamina o vitamina B1 y que efectivamente se la encuentra en gran cantidad en el salvado de los cereales, por ejemplo en la cáscara del arroz. Cuando le presentaron por primera vez estas conclusiones a Eijkman, no las aceptó; quizá, podríamos afirmar que no estaba preparado para admitir una discrepancia en el plano de la actividad científica ni a reconocer un fundamento que proviniese de otro plano (por ejemplo que su hipótesis se consideraba refutada no sólo por la experiencia sino también por la lógica deductiva).
Sin embargo la importancia de su trabajo en el estudio de las vitaminas fue reconocida en 1929 al serle entregado, junto con Hopkins, el Premio Nobel a los 81 años.

PROFESOR: EDUARDO CAÑUETO