martes, 3 de junio de 2008

    LA PAPA ES NUESTRA Y TODO LO DEMAS TAMBIÉN…. POR SI HAY DUDAS

    Mientras el Presidente Alan García Pérez y la primera mandataria Chilena Michelle Bachellet coinciden en mantener una "relación bilateral inteligente” frente al diferendo marítimo, mostrando galanteos y sonrisitas en la v cumbre y disfrutado de sabrosos platillos a base de papa... nuestros "hermanos" chilenos preparaban mil y una hipótesis para patentar la papa.

    A diferencia del presidente Alan García que esta convencido de las relaciones "amigables y solidarias" con Chile, la mandataria del país sureño oculta bajo una hipócrita sonrisa las provocaciones de su pueblo y aún hay más, mientras aquí (en cuanta cumbre y ceremonias es invitada de honor) asegura mantenerse al margen del conflicto limítrofe y dejar que la Corte de la Haya lo resuelva, en su país para escudarse de los reclamos de su pueblo, los entretiene asegurando que el Perú no tiene como reclamar los falsos límites por ellos traspasados sobre nuestro mar.

    Las continuas pugnas con chile ya sea por invadir nuestro mar, por apropiarse de nuestro Pisco, por patenta nuestra papa o por creer que la chirimoya es de ellos, se debe tan sólo a una "intenciona" mal información, falta de conocimiento o es la preparación (especie de guerra fría) que nos llevarán a conflictos mayores?

    El conflicto del mar a raíz de una mal trazada línea perpendicular y no recta a la altura de la Concordia establecida por el territorio chileno que le resta parte considerable a nuestro mar o el desmedido afán por sobresalir en "riqueza productiva" a costa nuestra nos lleva pensar que es producto de una enraizada envidia o un serio e intencionado problema de mal información.

    Esto nos lleva a preguntarnos, ¿que tanto conocen nuestros "vecinos sureños" de historia o como la "cuentan" en los colegios?, como puede la Ministra de agricultura Marigen Hornkoh, la propia Michelle Bachellet y todos sus seguidores respaldar tan irónica "iniciativa" de patentar la papa, tubérculo que, según investigadores internacionales, aparece hace mas o menos 5000 años en la región del Altiplano.

    Según manifiesta Chile, la papa nace en la región de chiloé, ubicada entre Tarapacá y Arica en los años 1821; es decir antes de la Guerra con Chile. Si esto fuera cierto, y empleando tan sólo la lógica, de ser esto verdad, Tarapacá y Arica no formaban parte acaso, en esos años, de territorio Peruano.
    Entonces les preguntó ¿La papa, al igual que la chirimoya, la papaya, el pacae, la quinua y el Pisco son nuestros?... Simple Chile la respuesta es SI.
    Un poco de historia para ustedes: La papa al igual que otras especies como la quinua, la kiwicha, la mashua, la papaya, la chirimoya el pacae nacen en la región del Altiplano 5000 años AC, como plantas silvestres y gracias al ingenio y creatividad del antiguo peruano la convirtió en una planta alimenticia

    viernes, 23 de mayo de 2008

    El shock climático sobre las economías de América Latina y el Caribe

    POr José Luis Machinea ( Comisión Económica para América Latina y El Caribe)
    Si algo podemos decir en términos positivos respecto al cambio climático es que ya nadie se anima seriamente a ponerlo en duda. La humanidad ha perdido mucho tiempo en discusiones que mostraron una gran dosis de ignorancia y de intereses creados. Sin embargo, tomar conciencia y discutir el tema no significa que se adopten decisiones; varias conferencias internacionales y la acción diaria son prueba de ello.

    Es ineludible que todos contribuyamos a reducir la emisión de gases de efecto invernadero y a mitigar los efectos del cambio climático, aunque aplicando el principio de responsabilidades comunes pero diferenciadas. En ese marco, estamos persuadidos de que los países desarrollados deberán mostrar su determinación en la fijación de nuevos compromisos y en el cumplimiento de los objetivos y las metas acordadas internacionalmente. De la misma manera, al interior de los nuevos países deben ser los sectores de menores ingresos quienes más contribuyan.

    jueves, 8 de mayo de 2008

    PERIODISMO VIRTUAL VS LA PRENSA

    La aparición de Internet como nuevo medio informativo desató a las puertas del nuevo milenio una avalancha de especulaciones y predicciones sobre cuál sería el alcance y la aceptación de la misma. ¿Provocaría la incursión de Internet una reñida competencia por lectores y publicidad? o, peor aún, ¿se convertiría ésta en una amenaza de extinción para la centenaria prensa escrita?
    Estas interrogante, de tintes más bien futuristas, parecen haber quedado, por ahora, suspendidas.
    Las preguntas que atormentan hoy en día a los medios informativos son de aspecto cualitativo, antes que existencial. Sobre todo en los países con altos estándares de vida, Internet, y por ende, los periódicos en línea se han podido desplegar en todo su esplendor y han alcanzado un número representativo de lectores.
    ¿Qué es lo que ofrecen estos diarios? , ¿y por qué se dice que cambiarán los esquemas de los medios escritos convencionales? A pesar de todas las ventajas y conveniencias que ofrecen, ¿por qué no han podido llegar al corazón de los lectores?

    Internet, el medio ideal
    Al hacer su aparición, hace algunos años ya, Internet se reveló como el medio ideal, que ofrece, dentro de sus capacidades tecnológicas, muchas ventajas antes atribuidas separadamente a otros medios. Así se le pronosticó a la prensa en línea, la rapidez de una agencia noticiera, la actualidad de la radio, además de permitirse ofrecer, cual flash televisivo, transmisiones en vivo.
    A estas cualidades técnicas se le atribuyó la profundidad temática que no puede ofrecer un diario impreso: los reportajes pueden ser enlazados con otros de temática similar, proporcionando al ávido lector una oferta bastante amplia de información.

    Frente a estas ventajas, pareció como si Internet fuera a arrasar frente a los caducos medios, pero no fue así, no lo es y parece que tampoco lo será.

    Alcance desigual
    La primera razón radica en el desigual alcance que tiene Internet en el mundo, ya que solamente la brecha digital entre países industrializados y en vías de desarrollo impide hablar de ésta como un medio informativo masivo y mundial.

    ¿Qué sucede en los países con altos estándares de vida, donde Internet (en parte debido a la desregulación de los mercados telecomunicativos y presión de precios a la baja) se ha establecido y ha dejado de ser una exclusividad?

    A continuación se describe el fenómeno que ha modificado el horizonte de los medios informativos, pero que, a pesar de su alcance, no se ha podido convertir en el medio informativo favorito del ávido lector europeo promedio.

    La prensa en línea en Europa
    A simple vista, el panorama en el viejo continente es bastante tranquilizador. Internet se ha desarrollado como un nuevo medio más, con dinámica propia, que no representa la extensión de cualquier otro medio conocido, como la radio, televisión o prensa.

    Así, el miedo de la competencia intermedial (entre medios de comunicación distintos) se ha presentado como infundado, como lo confirma Karl Dietrich Seikel, miembro de la directiva de la Asociación de Editores de Revistas Alemanas, en un informe de noviembre del 2000 del Frankfurter Rundschau con respecto al panorama de los medios alemanes.

    Aumento de tirada
    Un dato estadístico a favor de este argumento, es el aumento de tirada que han experimentado las revistas alemanas en el tercer trimestre del año 2000: ¡2 millones de ejemplares más que en el trimestre anterior!

    Frente a este panorama optimista, los editores de diarios y revistas reconocen, igualmente que hoy en día, que no pueden competir sin tener su versión en la red, aunque ya exista una sobresaturada oferta de periódicos y revistas en línea. Según este mismo diario, se calculan en alrededor de 160 los diarios alemanes en Internet.

    En algunos países europeos, como Noruega, Dinamarca, Suecia o Alemania, se puede reconocer una coyuntura sin precedentes, ya que Internet ha hecho nicho en un sector del público lector.
    El éxito del diario en línea Nettavisen ya hizo escuela en su país de origen, Noruega, y ahora el mismo concepto es seguido por editores alemanes, con la Netzeitung, que pretende desde septiembre del 2000, ofrecer al público lector "noticias de calidad, a la velocidad del rayo, según un informe publicado en Frankfurter Rundschau.

    Presencia en la red
    El verdadero reto de éste, y otros periódicos que solamente se publican en línea, es el de ganar presencia en la red, sin ser ensombrecidos por sus rivales de la prensa escrita, que han hecho una versión en línea de sus publicaciones.

    Tal es el caso de la revista Spiegel, que es una institución en la prensa alemana, y cuyo posicionamiento en la red (una de las primeras revistas alemanas online, desde septiembre de 1994) no requirió de mucha publicidad para encontrar fieles lectores, que la seguirían hasta el mundo virtual. ¿Que es entonces lo que pueden ofrecer los novísimos periódicos y revistas en línea?

    El concepto desarrollado por el autor suizo Perikles Monioudis, para Netzeitung, se basa justamente en una mezcla de periodismo informativo y ayuda de búsqueda. Como declaró este autor para la Frankfurter Rundschau, lo interesante de la prensa en línea no es publicar noticias y artículos de opinión a manera de primicia (ya que en el mundo virtual es una tarea casi imposible) sino de filtrar y seleccionar la información que podría interesarle al lector. Así los artículos que ofrecen una serie de links referentes a ese mismo tema, envían al lector por una ruta directa de enlaces previamente seleccionados por el articulista.

    A través de esta orientación de lectura, se ahorra al usuario que se sumerja en los mares de inútiles anuncios comerciales y publicaciones de origen desconocido. Con esta política de selectividad se trata de auspiciar un periodismo de alta calidad, teniendo siempre presente el factor actualidad.

    Agencias noticiosas: catalizadores de información en la red
    La secuencia clásica en la rapidez de publicación de una noticia, comenzaba en estos países hace una década, por la radio, en segundo lugar estaba el noticiero televisivo, y al día siguiente se completaba la información, leyéndola en el periódico.

    La red de redes cambió esta cadena de información abruptamente.
    Sobre todo cuando se trata de noticias "relámpago" de interés masivo, es Internet la que lleva las de ganar. Aquí entran en escena las agencias noticiosas, como Reuters, DPA o AFP, que han encontrado en la prensa en línea, a sus mejores aliados.

    La carrera entre los diarios virtuales se refleja también en la competencia de las agencias, por ofrecer el mejor servicio para las publicaciones en línea. Este giro en el mercado de la información, le ha venido muy bien a las agencias de prensa internacional, como Reuters, que debido a la galopante demanda, ha expandido sus servicios online. Los resultados no se hicieron esperar, y hoy en día, la agencia más grande del mundo tiene ganancias, que de acuerdo al semanario alemán Die Zeit, se estiman mayores a lo que ésta recauda con los servicios noticieros convencionales.
    Los news-ticker
    Así, todos los periódicos virtuales que quieren competir profesionalmente, tienen una columna de últimas noticias, los llamados news-ticker, que presentan la reseña de los sucesos prácticamente a tiempo real, y que por lo general son servicios de las agencias noticieras.

    Por ejemplo, cuando se disolvió la fusión entre los dos bancos más grandes de Alemania, el Deutsche Bank y el Dresdner Bank, la noticia se encontraba en línea diez minutos después de haber sucedido, según declaraciones de un redactor de la AFP, para el semanario Die Zeit.

    Y no hay duda, que el lector nunca estuvo tan cerca de los acontecimientos y que en toda la historia de la comunicación, nunca se había tenido un acceso tan fácil y rápido a noticias, reportajes o artículos de opinión, como hoy en día, gracias a Internet. Con esta oferta ilimitada, se vaticina una transparencia de información sin igual, en donde el usuario tiene la oportunidad de comparar las noticias en un tiempo mínimo.

    Repercusiones en estilo y temática
    ¿De qué manera incide esta velocidad de información y sobre todo esta reproducción imparable de datos y más datos en la calidad y temática de la redacción online?
    En términos generales, Internet lo que ha provocado ha sido un polémico cambio estilístico en el lenguaje, la estructura y la temática de los informes.

    Digital storytelling es el lema de los redactores virtuales. Es decir, la utilización de un lenguaje más dinámico y coloquial, que en un mínimo de palabras y espacio envuelva, y a su vez, informe al lector.

    Otra característica, como respuesta al creciente interés del lector virtual, ha sido la introducción de una sección de informática y tecnología.

    Al fin y al cabo, el usuario también quiere estar informado de lo que sucede en la red de redes. Aunque este fenómeno también se da, por supuesto, en la prensa escrita, donde cada vez es más frecuente encontrar informes sobre los avances de los nuevos medios de comunicación e información, y las últimas noticias sobre la evolución de los negocios en la nueva economía.

    El poder del lector
    Pero éste no es el único cambio provocado por la prensa virtual a su progenitora centenaria. Con la creciente aceptación de los periódicos virtuales, se profetiza un cambio necesario en el estilo de la redacción impresa.

    La mayoría de agencias noticiosas, según un reportaje de Die Zeit, abogan porque la prensa escrita debería ofrecer la información que le falta a Internet. El gerente general de la agencia alemana DPA, Walter Richtberg, también lo ve así, y afirma "que los periódicos en el futuro no perderán tirada, pero van a tener que modificar sus contenidos".

    Este cambio se refiere, sobre todo, a los breves informativos, que resultarán, según los pronósticos de las agencias, superfluos frente a los noticieros en la red. De acuerdo a estos presagios, efectuados por el jefe de redacción de la Süddeutsche Online, Patrick Illinger, la prensa escrita tendrá que relegarse a artículos de fondo.

    Entonces, ¿no significa este supuesto desplazamiento, acaso, la primera partida ganada de Internet frente a la prensa escrita?
    Las preferencias del lector Aun en estos países, donde se puede hablar de una importante expansión y alcance de este nuevo medio informativo, no se puede decir lo mismo de un importante cambio en la preferencia del lector promedio.

    Un aire de sospecha se cierne sobre todos los presagios optimistas anteriormente citados. La razón, o mejor dicho, las razones radican, en que el lector no puede disfrutar de la lectura online de la misma manera, que lo hace al leerlo en el papel.
    Este argumento, aunque pareciera bastante subjetivo, es una constante entre el público lector (apasionado), que ha sido confrontado con este nuevo medio informativo. Y aunque la tecnología, probablemente erradicará este problema de comodidad con monitores estándar más grandes, por ejemplo, las dificultades no acabarán allí.

    Sobrecarga de información
    Lo que se presenta como una ventaja más de Internet, para el lector, puede resultar un exceso, como es la conocida sobrecarga de información que ofrecen algunos periódicos y revistas en línea. Lo que el acostumbrado lector de periódico prefiere saltar, hojeando la siguiente página, en Internet se ve obligado literalmente a "llamar" durante segundos (a veces minutos), para después darse cuenta que el artículo no es lo que esperaba.

    La falta de claridad en la presentación y ordenación de las noticias es otro típico problema de la prensa en Internet, que ha sacado de casillas a más de un paciente lector, y que no podrá ser solucionado sin antes haber pasado por continuas reformas en su layout o formato.

    Conclusión
    En conclusión, existen todavía muchos obstáculos por superar para que la prensa virtual se convierta en un medio informativo de preferencia masiva.
    Las limitaciones tecnológicas, en primera instancia, pero también la interminable oferta de datos es uno de sus más severos síntomas, que lamentablemente no se limita a la prensa virtual, sino que es una constante en la red de redes, en donde muchos navegadores han naufragado en intentos desesperados de encontrar la información que necesitan.

    jueves, 14 de febrero de 2008

    El Aprendizaje Basado en la Experiencia

    Es una realidad que en nuestra sociedad es necesario adquirir en poco tiempo ciertas competencias acordes a la alta exigencia competitiva de las empresas y las condiciones cambiantes del contexto en el cual se desenvuelven. Por ello, promover habilidades relacionadas con la resolución de problemas, el aprendizaje autónomo y la capacidad para tomar decisiones, autodirigir sus acciones y analizar su impacto, toman un alto valor.
    Para el logro de estas competencias, las teorías pedagógicas concuerdan en que el aprendizaje experiencial es una herramienta muy útil, especialmente en la formación en el trabajo, es donde es importante adquirir conocimiento con eficacia y en corto tiempo.

    El aprendizaje basado en la experiencia, experiencias, fáctico, "learning by doing" o "hands-on learning" está enmarcado en lo que generalmente llamamos aprendizaje activo. El mismo, supone animar a las personas a descubrir por sí mismas los principios de funcionamiento de los sistemas, procesos, etc. a través de la experimentación y la exploración.

    La virtud de las simulaciones es que permiten superar las limitaciones de la práctica en situaciones reales, especialmente en lo relativo a amplitud y profundidad del aprendizaje y a efecto adverso de los errores.

    Básicamente consiste en un proceso de aprendizaje en el cual las personas (individualmente o en grupo) realizan determinadas acciones y observan los efectos. Luego, los analizan para entender el impacto de sus actos en ese contexto particular y evalúan si en otros escenarios o situaciones se podrían producir los mismos resultados. De esta manera, pueden inferir los principios que produjeron esos resultados y anticipar los efectos de sus acciones futuras.

    Este tipo de formación promueve una construcción del conocimiento profunda y aumenta la comprensión y la eficacia y eficiencia en la puesta en práctica de las competencias aprendidas.

    Ello se vincula con el aumento de la motivación y la mejora en el uso de las estrategias de aprendizaje, ya que la persona se siente más involucrada en la elaboración del conocimiento.

    Además, la evidencia indica que el aprendizaje experiencial incrementa las expectativas de logro y la confianza en las propias habilidades, ayuda a integrar conocimientos entre sí y con experiencias y conocimientos anteriores, y promueve la adquisición de mayor cantidad de conocimiento, más profundamente y a más largo plazo.

    Ausubel y Bruner, entre otros autores, propusieron que el aprendizaje más adecuado no es aquel donde lo que debe ser aprendido se presenta en su forma final, sino aquel en que debe ser descubierto por el que aprende, quien ocupa un rol más activo que en los enfoques tradicionales.

    De hecho, Bruner propone que el aprendizaje es un proceso activo donde la actividad de procesamiento de la información implica que el que aprende debe construir y reorganizar el conocimiento en su estructura cognitiva por medio de los diferentes niveles de representación. Esto significa que aprende cuando transforma la información según las reglas con las que se representa su propia experiencia. De allí la importancia del aprendizaje experiencial.

    ¿Cómo se lleva a la práctica el aprendizaje experiencial?

    A grandes rasgos, existen dos vías: la práctica de campo en situaciones reales o la práctica en situaciones simuladas.

    La práctica en situaciones reales tiene la ventaja de dotar de total realismo al aprendizaje.

    Sin embargo, al planificar una actividad de este tipo nos encontramos con ciertas limitaciones. Por una parte, los errores cometidos por el que aprende pueden afectar adversamente (en cuanto a calidad de producto, productividad, costos, etc.) al proceso en el cual actúa. Por otra, el aprendizaje se restringe a las situaciones admitidas en el proceso real, y por ello el conocimiento adquirido queda limitado. Además, la cantidad de situaciones que se pueden experimentar es pequeña, pues una vez realizada determinada acción es muy difícil, o imposible, retornar el sistema al estado anterior para experimentar con acciones diferentes.

    La evidencia indica que el aprendizaje experiencial incrementa las expectativas de logro y la confianza en las propias habilidades, ayuda a integrar conocimientos entre sí y con experiencias y conocimientos anteriores, y promueve la adquisición de mayor cantidad de conocimiento, más profundamente y a más largo plazo.

    Las simulaciones permiten aprender a través del descubrimiento personal y la exploración en un medio artificial similar a la realidad.

    De esta forma, se pueden desarrollar y evaluar aquellos tipos de competencias que son mejor aprendidas a través de la experimentación o de la puesta en práctica, como por ejemplo habilidades técnicas, interpersonales y de trabajo en equipo, de gestión de sistemas complejos (empresariales, económicos, industriales, logísticos, ecológicos, sociales, etc.), para afrontar situaciones impredecibles, etc.

    Pero también pueden tener desventajas. Por una parte, se trabaja en situaciones imaginarias, y se requiere un diseño muy cuidadoso para dotarlas del mayor realismo posible. Por otra, el desarrollo de los recursos necesarios para algunos tipos de simulaciones puede ser complejo y costoso.

    Hay varios tipos de simulaciones aplicables al aprendizaje experiencial. Entre ellas, las sistémicas han demostrado ser muy eficaces, porque permiten:

    Actuar del mismo modo que en la realidad.
    Vincular más fácilmente otras experiencias con el nuevo conocimiento.
    Elaborar núcleos complejos de conocimiento con mayor facilidad, profundidad y retención.
    Dar lugar a diferentes estilos de aprendizaje.
    Cometer errores sin provocar daños y aprender a evitarlos y manejar sus consecuencias.
    Conocer las variables que influyen en el funcionamiento del sistema simulado y sus interrelaciones.

    Además, el uso de la computadora en las simulaciones sistémicas posibilita:

    Efectuar en forma fácil y rápida procesos que en la realidad pueden ser muy complejos.
    Presentar los resultados de diversas formas: textos, imágenes, sonido, vídeo, etc.
    Obtener los resultados rápidamente, lo cual facilita la percepción de las relaciones causa-efecto.
    Ensayar en poco tiempo una amplia variedad de situaciones.

    Facilitar el trabajo en equipo y la construcción de comunidades de aprendizaje, pues un entorno adecuado permite mantener una comunicación muy activa con los compañeros sin limitaciones de tiempo o lugar.

    Tener fácilmente al alcance una amplia variedad de fuentes de información, en diferentes formatos.
    Contar con soporte y asesoría durante la simulación sin interferir con ella.
    Observar el funcionamiento del sistema paso a paso, para comprender mejor su funcionamiento.

    En conclusión el aprendizaje basado en la experiencia es muy valioso porque permite:

    Vincular el objeto de aprendizaje con la realidad y la experiencia previa, lo cual aumenta su significatividad y retención.
    Trabajar en situaciones de intensa cooperación o colaboración.
    Adquirir habilidades de resolución de problemas, pensamiento lateral y trabajo en equipo.
    Dar un enfoque integrador a los conocimientos a incorporar.


    La virtud de las simulaciones es que permiten superar las limitaciones de la práctica en situaciones reales, especialmente en lo relativo a amplitud y profundidad del aprendizaje y a efecto adverso de los errores.

    Por lo tanto, el aprendizaje experiencial y las simulaciones son herramientas muy útiles para abordar situaciones de aprendizaje en las cuales necesitamos la formación de personas con habilidades y competencias sumamente necesarias en la realidad.

    En próximos artículos veremos qué tipos de simulaciones existen, cómo organizar el desarrollo de una simulación y cómo construir un simulador.

    lunes, 4 de febrero de 2008

    Estímulo equivocado

    Los demócratas de la Cámara de Representantes y la Casa Blanca llegaron a un acuerdo para un plan de estímulo económico. Desafortunadamente, el plan —conformado esencialmente por nada más que recortes fiscales concedidos en su mayor parte a gente en buena situación financiera— parece estar destinado al fracaso.

    Específicamente, los demócratas aparentemente cedieron ante la rigidez ideológica de la administración Bush y renunciaron a sus demandas de incluir medidas que habrían ayudado a los que más lo necesitan. Y resulta que ésas eran las medidas que podrían haber logrado que el plan de estímulos fuera efectivo.

    Son palabras duras, así que permítame explicar qué está sucediendo.

    Aparte de los incentivos fiscales a las empresas —una historia triste que dejaré para otra columna—, el plan otorga 300 dólares a cada trabajador con salario menor a 75 mil dólares, además de dinero adicional a gente que gana lo suficiente como para pagar sumas importantes de impuestos al ingreso. Esto garantizaría que gran parte del dinero se destine a gente en buena situación financiera, lo cual pierde de vista totalmente el tema fundamental.

    El objetivo de un plan de estímulos debe ser apoyar el gasto general, con el fin de evitar una recesión o limitar su profundidad. Si el dinero que el gobierno entrega no se gasta —si simplemente engrosa las cuentas bancarias de la gente o se usa para liquidar deudas—, el plan habrá fracasado.

    Y enviar cheques a gente que tiene una buena posición económica hace poco o nada para incrementar el gasto total. La gente que tiene buenos ingresos, buen crédito y un empleo seguro, toma sus decisiones de gasto con base en su poder adquisitivo a largo plazo, más que en el monto de su último sueldo. Entregue a esa gente unos cientos de dólares extras y simplemente los pondrá en el banco.

    De hecho, eso parece ser lo que sucedió principalmente con los recortes fiscales que los estadounidenses ricos recibieron durante la última recesión, en 2001.

    Por otro lado, el dinero que se entrega a gente que no está bien económicamente -que sufre escasez de efectivo y vive al día- cumple una doble función: alivia las privaciones y aumenta el gasto de consumo.

    Por eso es que muchas de las propuestas de estímulo que escuchamos hasta hace apenas unos días se enfocaban, en primer lugar, en expandir programas que ayudan específicamente a gente que está atravesando por un mal momento, centrándose en especial en el seguro de desempleo y los cupones de comida. Y éstas fueron las propuestas de estímulo económico que recibieron las mejores calificaciones en un análisis reciente de la Oficina de Presupuesto del Congreso, una entidad no partidista.

    También se habló entre los demócratas sobre la posibilidad de otorgar ayuda temporal a los gobiernos locales y estatales, cuyas finanzas están siendo gravemente afectadas por la debilidad de la economía. Al igual que la ayuda para los desempleados, esto también habría cumplido dos funciones: aliviar privaciones y evitar recortes al gasto que podrían empeorar los problemas de la economía.

    Pero al parecer la administración Bush tuvo éxito en su afán de aniquilar todas estas ideas, promoviendo en cambio un plan que proporciona dinero principalmente a quienes tienen menos probabilidades de gastarlo.

    ¿Por qué querría la administración hacer esto? No tiene nada que ver con un propósito de alentar la eficiencia económica, pues ninguna teoría económica o evidencia que yo conozca establece que las familias de clase alta y media tienen más probabilidades que los pobres o desempleados de gastar el dinero que se les devuelve. En vez de eso, lo que parece estar sucediendo es que la administración Bush se niega a respaldar cualquier cosa a la que no pueda llamarle “recorte fiscal”.

    A su vez, ese rechazo es motivado por el compromiso de la administración de reducir los impuestos a los ricos y bloquear la ayuda a familias en problemas, compromiso que requiere mantener la premisa de que el gasto gubernamental siempre es algo malo. El resultado es un plan que no sólo es incapaz de ofrecer ayuda a quien más la necesita, sino que probablemente fracasará como medida de estímulo económico.

    Unas palabras de Franklin Delano Roosevelt me vienen a la mente: ´´siempre hemos sabido que el egoísmo descarado es malo desde el punto de vista moral; ahora sabemos que también es malo para la economía”.

    Y lo peor de esto es que los demócratas, que deberían haber tenido una posición fuerte —¿acaso a la administración le queda algo de credibilidad en política económica?—, al parecer han cedido casi por completo.

    Sí, arrancaron algunas concesiones, incrementando la devolución fiscal para gente de bajos ingresos y reduciéndola para los ricos. Pero básicamente se dejaron intimidar para hacer las cosas como las quería la administración Bush.

    Y eso a la postre podría ser algo muy malo.

    No sabemos con seguridad qué tan profunda será la próxima depresión económica, o incluso si cumplirá con la definición técnica de “recesión”. Pero existe la posibilidad real no sólo de que sea un declive pronunciado, sino de que la respuesta usual a una recesión -recortes en las tasas de interés por parte de la Reserva Federal- no será suficiente para corregir el rumbo de la economía.

    (Para más información sobre esto, visite mi blog: krugman.blogs.nytimes.com).
    Y si eso sucede, lamentaremos profundamente el hecho de que la administración haya insistido, y que los demócratas hayan aceptado, un supuesto plan de estímulo que sencillamente no hará el trabajo.


    Columnas anteriores

    Resurgimiento de Europa 2008-01-16

    Enfrentando al dragón chino 2008-01-10

    Cuando se acabe el dinero 2007-12-19

    Republicanos y racismo 2007-11-29

    Tratado como tonto 2007-11-21

    jueves, 13 de diciembre de 2007

    HOMOLOGACIÓN: TAN DESFIGURADA E INCUMPLIDA COMO LAS PROMESAS DEL PRESIDENTE ALAN GARCIA

    El 09 diciembre se cumplen 24 años de promulgada la Ley N° 23733, Ley Universitaria por el Presidente Arq. Fernando Belaúnde Terry, curiosamente impulsada por la bancada aprista liderada por Luis Alberto Sánchez. La ley Universitaria en su artículo 53° establece de manera meridiana que “Las remuneraciones de los Profesores de las Universidades Públicas se homologan con las correspondientes a las de los Magistrados Judiciales”. En el Poder Judicial existen el juez especializado mixto, el vocal superior y el vocal supremo, cuyos homólogos en las universidades son el profesor auxiliar, asociado y principal, respectivamente. Los ingresos de los señores magistrados provienen de tres conceptos: bono jurisdiccional, gastos operativos e ingreso remunerativo y pensionable, que en el caso de un vocal supremo hace la suma total de 15 600 soles. Lo que los docentes universitarios venimos exigiendo es que se nos homologue con el ingreso remunerativo y pensionable de nuestros respectivos homólogos: profesor auxiliar 2008 soles, profesor asociado 3008 soles y profesor principal 6700 soles.

    Sin embargo, a pesar de la claridad de este precepto jurídico nuestros gobernantes de turno nunca lo han podido “entender”, probablemente por eso ocupamos el último lugar en comprensión de lectura, y a la fecha, sólo desde el 2005, se han dado más de una veintena de dispositivos legales entre leyes, decretos de urgencia, decretos supremos, reglamentos, etc. con la perversa intención de no cumplir con el claro mandato del articulo 53° de la Ley Nº 23733, Ley Universitaria. En efecto, el mencionado programa de homologación autorizado mediante el DU N° 033-2005 por el Presidente Dr. Alejandro Toledo, establece que es sólo para profesores nombrados, violando la Constitución Política del Estado, la Declaración Universal de los Derechos Humanos y la propia Ley N° 23733, Ley Universitaria, al dejar fuera a los profesores contratados, cesantes y jubilados de una manera absolutamente discriminatoria. Además, no reconoce el 100% de la remuneración pensionable del vocal supremo a los profesores principales, no reconoce la homologación a los profesores nombrados y/o promovidos de categoría posteriormente al 22 de diciembre del 2005, es como si un magistrado que ha ascendido hasta vocal supremo se le siga pagando con el haber con el que ingreso a la carrera judicial. Realmente Absurdo.

    A pesar de ello, el 2006 Toledo cumplió con pagar el 30%, faltando los tramos del 35% para el 2007 y 35% para el 2008. El congreso de la Republica autorizó mediante la Disposición Complementaria y Final de la Ley N° 28929 “…aprobar durante el año 2007 los recursos necesarios para completar el 35% de la homologación para la docencia universitaria establecido por la Ley N° 28603…”. Como el ejecutivo no cumplía, a pesar de nuestras exigencias, El Congreso volvió a dar dos leyes: la Ley N° 29035(10 de junio) y Ley N° 29070(22 de julio) con las cuales se transfirieron a las universidades 71 millones para pagar el 35% de la homologación desde junio. Tampoco el ejecutivo cumplió. El 15 de noviembre el Congreso da otra ley, la Ley N° 29137 disponiendo el pago de la homologación de los docentes universitarios desde junio. Una ley dada para que se cumpla le ley, pero increíblemente el Ministro de Economía Luis Carranza, avalado evidentemente por el Presidente García, no le da la gana de cumplir y pretenden que de doce meses del año 2007 pagar sólo diciembre; mientras tanto la huelga nacional indefinida, que ya lleva 95 días en este año continua ante la indolencia de estos señores. Pensar que el lema de campaña era ¡cambio responsable! y que Jorge del castillo dice “la ley es la ley y hay que cumplirla” ¿a quiénes se referirá?

    Así, los docentes universitarios celebramos un aniversario más de un articulo 53° totalmente, tergiversado, manoseado, tan desfigurado que ya casi ni lo reconocemos; pero una vez más, aún cuando la estrategia del gobierno es meternos en el agujero negro de la desesperanza, renovamos nuestra convicción, y por principio y lealtad a nuestros mártires que nos legaron su ejemplo de lucha, seguiremos bregando sin renunciar por una universidad pública de calidad, más ante los mayores retos que enfrentará el país con la firma del TLC, y por una verdadera homologación, en estricto cumplimiento del art. 53° de la Ley Nº 23733, Ley Universitaria.

    Trujillo, 08 de diciembre de 2007
    Mg. Roberto Rojas Alegría

    Secretario General SUDUNT.

    sábado, 3 de noviembre de 2007

    Las diez grandes ideas de la ciencia


    Manuel Calvo Hernando

    Peter Atkins, catedrático de Química de la Universidad de Oxford, es autor de libro El dedo de Galileo, un tomo de 436 páginas. ¿Por qué su dedo? Porque Galileo representa el punto de inflexión, el momento en que la empresa científica cambió de rumbo y sus cultivadores dejaron sus cómodos sillones, pusieron en duda la eficacia de la alianza entre raciocinio y autoridad, con la que hasta entonces se había intentado luchar con la naturaleza del mundo, y dieron los primeros pasos titubeantes por la senda de la ciencia moderna.

    Arkins es autor manuales de química de fama mundial y de obras de divulgación como La creación, de la que Richard Dawkins ha dicho que es "el libro de divulgación científica más hermoso que se haya escrito jamás".

    Resumimos las diez grandes ideas de la ciencia, tal como las expone en su libro el profesor de Oxford.

    1. Evolución. Emerge la complejidad. ¿Cómo se origina toda esta rica variedad de seres vivos? Lamarck (1744-1829) creyó haber dado con la clave. La pobreza y la enfermedad le acompañaron toda la vida, pero fue el fundador de la biología de los invertebrados (término acuñado por él) e intentó encontrar una explicación de la existencia de las especies. La chispa de Darwin se encendió el 28 de septiembre de 1838, mientras pensaba sobre la amplia información que había reunido en su viaje en el "Beagle", que duró cinco años. Leía, por entretenimiento, el Ensayo sobre el principio de la población, de Malthus. Después se pasó 20 años reflexionando y el 1 de julio de 1858 salió a la luz, y el informe se publicó en noviembre de 1859.
    La selección natural es una idea sencillísima, pero su aplicación es muy complicada. El "éxito" en este campo es algo más que mera supervivencia. Es también la capacidad de seguir reproduciéndose. Este principio se halla en el origen de la desafortunada y tan malinterpretada expresión "la supervivencia del más fuerte", acuñada por Herbet Spencer en 1862. Cuando se considera la selección natural, hay que recordar que se trata de un proceso totalmente localizado en el espacio y en el tiempo. Está implicada por completo en el presente y carece en absoluto de previsión.

    2. ADN. La racionalización de la biología. La gran idea es aquí "La herencia está codificada en el ADN". Cada uno de nosotros en cien billones de seres, aproximadamente. Cada una de nuestras células (y rondan el centenar de millones), la mayoría tan distintas que hacen falta doscientas para llenar el punto de esta i contiene una plantilla de todo nuestro cuerpo. En principio (una expresión siempre peligrosamente sospechosa) si descomponemos un cuerpo en sus cien billones de células, podría engendrar cien billones de personas, y si volvemos a separar todas esas personas una vez más, podrían convertirse en unos cien billones y pronto usted y sus clones dominarían por completo todo el universo. Por suerte, hay limitaciones físicas y biológicas que hacen imposible esta fantasía. Pero la mera posibilidad de imaginarla sugiere que nuestros conocimientos sobre la naturaleza celular de la vida han alcanzado cotas sin precedentes.
    El autor de este libro se formula dos preguntas para desvelar el misterio del cromosoma. ¿De que está hecha la herencia? ¿Qué es la encarnación física de la información genética? La idea de que una sustancia química lleva codificada la información hereditaria había surgido en el siglo XIX. Una vez aceptado, a partir de 1902, aproximadamente, que las proteína son largas moléculas fibrosas, se vivió un entusiasmo generalizado ante la idea de que las proteínas llevaban codificada la información genética, con distintas secuencias de aminoácidos que transmiten mensajes diferentes de una generación a la siguiente.

    3. Energía. La universalización de la contabilidad. La energía no ha dejado de ser un aspecto del discurso literario, pero hoy cuenta con una vida nueva, rica y claramente delimitada dentro de la ciencia. Thomas Young (1773-1829) afirmó que el término energía podía aplicarse al producto de la masa o peso de un cuerpo por el cuadrado del número que expresa su velocidad. La observación era incompleta, pero abría un camino fascinante para entender la interpretación actual del concepto de energía y su gran importancia de su conservación. El trabajo, por ejemplo, es energía transferida de tal manera que, al menos en principio, esta energía pueda utilizarse para levantar un peso, o, en términos generales, para mover un objeto.

    4. La entropía. El resorte del cambio. La gran idea es que todo cambio es consecuencia de la caída sin finalidad de la energía y la materia en el desorden. Por ello, C.P. Snow pudo afirmar que "desconocer la Segunda Ley de la termodinámica es como no haber leído nunca una obra de Shakespeare". Una pregunta que cualquiera podría olvidarse de plantear es por qué pasan la cosas. El profesor Atkins, en el libro que glosamos, dice que al buscar la respuesta a esta pregunta podemos llegar a una comprensión absoluta. La respuesta a la interrogación sobre el origen del cambio está en un campo científico llamado termodinámica, y que es el estudio de las transformaciones de la energía, en concreto del calor en trabajo.

    5. Átomos. La reducción de la materia. La gran idea: que la materia es atómica. La ciencia tardó en captar la matemática de la materia que en entender el movimiento de esta materia. La naturaleza de lo tangible era más escurridiza que el movimiento de la tangible en el espacio, ya que si bien fácil adjudicar números a las diversas posiciones en el espacio y en el tiempo, no se tenía aún la más remota idea de cómo adjudicar números a la materia. ¿A decir verdad, los números afectaban siquiera en algo a las propiedades comúnmente consideradas químicas? ¿Acaso la naturaleza de la materia iba a ser eternamente una mera cuestión de especulación?
    Pero, ¿qué son los átomos? ¿Cómo se transforman? La primera demostración de que los átomos tienen una estructura interna fue obra de J. J. Thomson (1856-1940), que en 1897 probó que podían detectarse electrones dentro de los átomos mediante descargas eléctricas. Los electrones eran la primera de las partículas subatómicas (partículas más pequeñas que los átomos) en ser identificadas. El número atómico quedó expuesto a la determinación empírica gracias a una técnica desarrollada por Henry Moseley (1887-1915) antes de ser llamado a filas y morir de un balazo en Gallipoli.

    Como escribiera Wilfred Owen antes de encontrarse con su propia bala la víspera del final de la guerra:
    Hice mío el coraje y obtuve misterio;hice mía la sabiduría y obtuve dominio

    6. Simetría. La cuantificación de la belleza. La gran idea aquí nos llega de Galeno: "Crisipo sostiene que la belleza no consiste en los elementos, sino en la simetría de las partes". ¿Sería posible que la belleza fuera la clave para comprender este hermoso mundo? El escultor griego Policleto de Argos, que vivó hacia 450-420 a.C., estableció las bases de nuestra comprensión actual de las partículas fundamentales. Uno de los grandes logros de la ciencia del siglo XIX fue la demostración, por el científico escocés James Clerk Maxwell (1831-1879) de que el mejor modo de concebir las fuerzas eléctrica y magnética era considerarla como las dos caras de una única fuerza electromagnética.

    7. Cuantos. La simplificación de la comprensión. La gran idea, en este caso, fue la siguiente: Las ondas se comportan como partículas, y las partículas, como ondas. Una buena frase de Richard Feynman es: "Si alguien afirma saber de lo que trata la teoría de los cuantos, es que no la ha comprendido". Hasta finales del siglo XIX, las ondas eran ondas y las partículas, partículas, sin ninguna ambigüedad. Pero, por desgracia para el entendimiento simplista, esta distinción no superó el cambio de siglo, entró un virus en la física clásica y, a las pocas décadas del siglo XX, la enfermedad que portaba lo había destruido todo por completo.

    8. Cosmología. La globalización de la realidad. La gran idea es que el Universo se está expandiendo. La arrogancia del logro majestuoso está en la capacidad de la ciencia para aplicarse a la mayor cuestión de todas: el origen del Universo. La humillación ineludible e irónica es que cada revolución astronómica y cosmológica los ha reducido la singularidad de la posición del Hombre. Desde Ptolomeo para acá, el Sol se ha visto empujado a una posición insignificante en una galaxia insignificante en un grupo insignificante en el que puede resultar ser un Universo insignificante.

    9. Espacio-Tiempo. El ámbito de la acción. La gran idea es: El espacio-tiempo está curvado por la materia, junto con una frase de Einstein: "Tiempo y espacio son modos mediante los que pensamos y no condiciones en las que vivimos".

    ¿Dónde sucede todo? Cuando miramos a nuestro alrededor, la respuesta parece evidente. Existimos en el espacio y actuamos en el tiempo. ¿Pero qué es el espacio y qué es el tiempo? Pensamos en el espacio como un escenario, tal vez inmaterial. El tiempo distingue acciones sucesivas, es un rasgo del Universo que nos permite reconocer el presente como una frontera siempre cambiante entre el pasado y el futuro. En otras palabras, el espacio desenreda sucesos simultáneos; el tiempo distingue el futuro imprevisible del pasado inalterable. Juntos, espacio y tiempo extienden los sucesos sobre los lugares en una secuencia ordenada, haciéndolos comprensibles. Pero tales de espacio y tiempo son más afines al sentimiento que al verdadero conocimiento. Tal sean el punto de partida de un filósofo que el punto de llegada de un científico.
    10. Aritmética. Los límites de la razón. La gran idea es ésta: Si la aritmética es consistente. Es incompleta.

    Una de mejores creaciones de la mente humana es la matemática, pues no sólo constituye la apoteosis del pensamiento racional, sino que también es la espina dorsal que confiere a la especulación científica la rigidez necesaria para afrontar la experiencia.

    Las hipótesis científicas son como gelatina: precisan de la rigidez de la formulación matemática para soportar la verificación experimental y acoplarse a la red de conceptos que componen la ciencia física. Una opinión muy extendida es que la matemática no es una ciencia, pues, quieras o no, puede hacer girar sus propios universos de discurso, universos de discurso, universos que apenas necesitan mantener relación con el mundo en el que parece que habitamos, salvo en el sometimiento a los rigores de la lógica.

    Por lo tanto, cabría pensar que la matemática es una intrusa en este volumen que glosamos, pero resulta tan central en el modo de pensamiento de un científico que es mejor considerarla una huésped bienvenida y recibirla como una ciencia honoraria. Además, con el avance de la abstracción en las ciencias físicas y su estimulación en el seno de las biológicas, determina dónde termina la matemática y comienza la ciencia es tan difícil e inútil como trazar el mapa de las márgenes de una neblina matinal.

Videos del Día

Tu Revista INGENIO

Escribenos Algo!

Mi lista de blogs

Usted es Visita Numero: