domingo, 18 de enero de 2009

Visionado y comentario del vídeo.Las TIC en Finlandia




En este sentido, de acuerdo con los más de 40 baremos utilizados para analizar la implantación de las nuevas tecnologías en cada uno de los países miembros, es Finlandia el que mejores resultados ha conseguido, por lo que lidera el ranking seguido de Irlanda, Países Bajos, Suecia y Dinamarca. España se sitúa en el puesto número 15, por debajo de países como Hungría, Eslovenia o Portugal. Además, el informe revela que Italia se encuentra a la cabeza en telefonía móvil de tercera generación y desarrollo de la fibra óptica, mientras que el Reino Unido es el país en el que un mayor número de hogares tienen televisión digital. Seis países, Dinamarca, Países Bajos, Finlandia, Suecia, Reino Unido y Bélgica, presentan una tasa de difusión de la banda ancha superior a las de Estados Unidos y Japón.

Estos niveles de difusión de la banda ancha tienen efectos indirectos positivos. Así, las empresas danesas son las que más utilizan Internet y el comercio electrónico en la UE; los trabajadores británicos y suecos son los más cualificados en TIC y Finlandia es el país donde se utilizan más los puntos de acceso destinados al público y donde se invierte más en investigación en el sector de las TIC (64,3% de sus gastos en I+D). Por otra parte, Suecia y Finlandia gastan el 3,9% y el 3,5% respectivamente de su PIB en investigación, superando el objetivo del 3% que se ha fijado la Unión Europea.

España

Por lo que respecta a nuestro país, consigue su mejor puesto, el tercero de la Unión Europea, en lo referente a los servicios online de las administraciones dirigidos a empresas. El porcentaje español en este ámbito es del 87,5%, un 20% por encima de la media de la Unión Europea.

España también consigue buenos resultados en la implantación de la banda ancha en empresas, con un porcentaje de un 87,1%, lo que le coloca en el cuarto puesto dentro de la Unión Europea. Además destaca de este dato el gran crecimiento experimentado en los últimos años ya que en 2004 sólo el 71% de las empresas españolas contaban con Internet de alta velocidad.

En la cara opuesta, nuestro país está a la cola en bastante de los rasgos estudiados por el informe europeo. De hecho de los 42 baremos analizados, en 11 está situado entre los puestos 18 y 21. El peor dato español, en comparación con el resto de la Unión Europa, es el de empresas que realizan compras a través de Internet, que en España alcanza un 16% cuando la media europea se sitúa por encima del 37%.

Cuestiones a revisar

El informe sobre la iniciativa i2010 de este año también establece cuestiones estratégicas fundamentales para el futuro, que se debatirán cuando se realice la revisión de esta iniciativa en el transcurso de 2007.

Entre estas cuestiones fundamentales, revela la CE en una comunicación cabe citar la evaluación de las implicaciones de las tendencias emergentes en las redes y en Internet; el reforzamiento de las perspectivas de los usuarios en materia de innovación de las TIC; y el fomento del crecimiento suprimiendo las «fronteras nacionales» artificiales para los servicios en línea.

La UE se plantea, para el periodo 2007-2008 dar los siguientes pasos: revisar el marco regulador para las comunicaciones electrónicas lanzando un debate sobre un futuro servicio universal y la gestión de un espectro flexible y eficiente; evaluar las políticas necesarias para el conocimiento de los nuevos medios y proponer metodologías comprensivas para la RFID y la televisión móvil; promover un desarrollo comprensible de contenidos innovadores de alta calidad; y, por último, continuar adelante con las estrategias de seguridad e información contra el cibercrimen.

Balance positivo

A pesar del camino que aún queda por recorrer, el balance para 2006 resultó positivo, señala el informe. Los indicadores principales se mueven en la dirección correcta, señalando a las TIC como el factor principal de crecimiento e innovación en nuestro continente.

Atrás parece quedar el escepticismo que, hace cinco años, provocaban las inversiones en estas tecnologías, y en su lugar se registra un aumento de la confianza en nuestra capacidad de desarrollar y extender las aplicaciones TIC a la economía y los servicios sociales.

http://weblogs.cfired.org.ar/blog/archives/004481.php

La gesta y la parábola en la comunicación pública.



Manuel Martín Serrano se ha referido a los medios como los nuevos mediadores del orden instituciona(Manuel Martín Serrano 1996). Son los medios quienes se encargan de canalizar y regular la acción social a través de las organizaciones institucio- nales. En este sentido, los medios son los mejores descriptores que existen dos tipos fundamentales de mundo: el del acontecer sociopolítico y el del acontecer cotidiano. La narrativa que los mediosd e comunicación emplean para narrar el relato del acontecer sociopolítico tiene las características de la gesta; mientras que la narrativa que sirve para hacer los relatos de la vida cotidiana responde a las características de la parábola.

Tanto la gesta como la parábola son estructuras de narración que nos permiten generamos un imaginario de mundo. En la primera estructura narrativa, es decir en la gesta, aparecen los héroes y los villanos, los caballeros andantes y los dragones y por supuesto que esperamos que el bien y la verdad salgan victoriosos.¡Qué mejor manera de influir a la opinión pública que mostrando al bueno y al malo de la contienda electoral! ¡Qué mejor incentivo que buscar todos los argumentos posibles para convencer acerca de las bondades de una propuesta ideológica por encima de otra! Y iqué realidad-ficción puede estar más claramente presentada que intentar prometer que la injusticia, la pobreza, la marginación y la desgracia pueden ser erradicadas con una solución única! No cabe duda, en los medios de comunicación no observamos realidades conforme a las cuales podamos forjarnos una opinión razonada, por el contrario, estamos rodeados de ficciones maquilladas bajo un repertorio de argumentos políticos equivalentes a los de la gesta.¿No hemos dicho acaso que este país necesita verdaderos lideres?,¿un auténticoc audillo capazd e imprimir dirección política a nuestros destinos pero que tenga la valentía y la audacia de enfrentar nuestros problemas?,¿ quién es ese personaje sino un auténtico héroe mitológico? De hecho,hacia finales de siglo y con una ideología revolucionaria en plena decadencia hemos volcado nuestra mirada hacia la creación de héroes mitológicos caídos a manos de crueles villanos que merecen castigo. Lo que propone este discurso al público es que el villano reciba su merecido.

Con esta narrativa, por un lado se fortalece un imaginario político que es sensible a las necesidades mércadológicas del electorado y por otro se regeneran los mecanismos regulatorios que garantizan la estabilidad social. A través de la profecía cumplida el héro se inmola, el caudillo valeroso no hace sino fortalecer a la institución y la institución obtiene su rázón de ser, su razón de actuar, su razón de interpelar a la ciudadanía a través de los medios.

Ahora bien, cuando la gesta no funciona como estrategia narrativa, sobreviene la parábola. La parábola se nutre de la realidad real pero la sublima;toma ejemplos vivos de la cotidianidad de los ciudadanos para mostrarlos a los demás y ponerlos como ejemplo. Un relato acerca de la criminalidad urbana puede servir como la narración que censura, que describe el fracaso y el castigo de quien incure en una acción social prohibida socialmente, proporciona la moraleja que, maquillada y magnificada por los medios de comunicación, sirve como la enseñanza de la fe que guía l actuación ciudadana.

Así como en la gesta lo que se privilegia es a la institución como mediadora social, en los relatos de la parábola, aun cuando el ciudadano es el actor principal, lo que prevalece es la ley, la regla o la norma de convivencia común. El ciudadano tiene que trascenderse a sí mismo para, olvidando sus necesidades más inmediatas, pensar en el prójimo y buscar con ello el bien común.No es por tanto extraño que tanto gesta como parábola sirvan de manera preferente a los fines de la opinión pública.

Así por ejemplo, al tratarse de una situación de enorme trascendencia social y política, una huelga, una crisis económica, una elección por ejemplo, todos los actores sociales se vuelven políticos, y todos intervienen proporcionando su propi~ versión de la realidad, su propio relato. Cada uno de ellos utiliza una o varias
herramientas de difusión de sus opiniones, y cada uno de ellos proporciona una pequeña pieza del rompecabezas total.

En todo caso, cuando nos enfrentamos ante el fenómeno de la opinión pública o de la construcción de los discursos, tendríamos que analizar no sólo a los actores enunciantes del mensaje,sino también a las herramientas empleadas para la comunicación y a la acción comunicativa empleada. Sólo así podremos tener un panorama un poco más completo del complejo proceso de formación de la comunicación política que tiene por objeto incidir en el electorado o en la opinión pública.

En este artículo hemos hecho un recorrido teórico metodológico que permite observar el complejo fenómeno de los procesos de formación de opinión pública y comunicación política en formación. Fundamentalmente, el objetivo ha sido el plantear todos los elementos que entran en juego, pero sobre todo hacer énfasis en la importancia de conocer las circunstancias en que la opinón pública se forja.

Es indiscutible que si bien los medios no detern1inand e manera directa la opinión del ciudadano o del votante, ni son los únicos actores en el proceso, sí ejercen un importante fenómeno de mediación entte los contenidos percibidos y las interpretaciones posibles de los mensajes. La forma de articulación de los elementos de realidad, los procesos de construcción o reconstrucción de elementos de realidad que hace o no posible la construcción de imaginarios posibles, resulta esencial para entender la aparente ceguera en la que frecuentemente se encuentta la ciudadanía respecto de las verdaderas acciones de gobierno y, consecuentemente la volatilidad del fenómeno de la opinión pública. El papel que anteriormente desempeñaban la prensa escrita, los medios audiovisuales o la reunión en la plaza pública ha cambiado. Hoy en día el gobierno está buscando nuevas formas de vinculación con la sociedad, y la sociedad misma está teniendo que aprender nuevas maneras de "leer" y de interpretar los sajes de la política y de los políticos. El reto es doble: por un lado, encontrar el equilibrio entre la descripción de la realidad y la generación de proyectos de país viables, y por otro, utilizar sensi- blemente las posibilidades de interacción y de generación de consensos que otorgan los medios para poder convertir dichos proyectos en realidad.

www.publicaciones.cucsh.udg.mx/pperiod/comsoc/pdf/35_1999/45-78.pdf

sábado, 17 de enero de 2009

Visionado y comentario del vídeo.Alfabetización digital gubernamental en la región de Maule con voluntarios



La alfabetización mediática suele definirse como la capacidad de acceder a los medios de comunicación, comprender y evaluar con sentido crítico diversos aspectos de los mismos y de sus contenidos, así como de establecer formas de comunicación en diversos contextos.

La importancia de la alfabetización mediática como componente de las agendas políticas europeas y nacionales relacionadas con los sectores de los medios de comunicación y las comunicaciones es cada vez mayor. Así, por ejemplo, la nueva Directiva de servicios de comunicación audiovisual obliga a la Comisión a elaborar un informe sobre los niveles de alfabetización mediática de todos los Estados miembros.

Una mayor alfabetización mediática puede contribuir considerablemente a la realización de los objetivos fijados para la Unión Europea en el Consejo Europeo de Lisboa del año 2000. Asimismo, la alfabetización mediática resulta especialmente importante para la creación de una economía del conocimiento más competitiva y participativa mediante un impulso de la competitividad de las TIC y los sectores mediáticos, para la realización de un espacio único europeo de la información y para fomentar la participación, mejores servicios públicos y mayor calidad de vida.

En materia de alfabetización mediática en el entorno digital mediante los programas y las iniciativas existentes. Asimismo, su objetivo es fomentar el estudio de criterios para evaluar la alfabetización mediática, objetivo para el que se lanzará en 2008 un estudio específico, que se basará en el informe previsto en la Directiva de servicios de comunicación audiovisual que la Comisión presentará cuatro años después de la adopción de la Directiva.

Por todo lo dicho, la Comisión invita al Parlamento Europeo, al Consejo, al Comité Económico y Social y al Comité de las Regiones a apoyar los objetivos y las prioridades establecidos en la presente Comunicación, así como a organizar en 2008 actos dedicados al intercambio de buenas prácticas en materia de alfabetización mediática en el entorno digital, incluyendo el tema de la economía del sector de los medios de comunicación en Europa. En función de la posición que expresan las otras instituciones y las reacciones de las partes interesadas a la Comunicación, la Comisión podría destacar estas buenas prácticas, adoptando eventualmente una Recomendación. Asimismo, teniendo en cuenta que 2008 será el Año Europeo del Diálogo Intercultural, la Comisión invita a las instituciones europeas a incorporar el aspecto del diálogo intercultural en sus actividades de alfabetización mediática.
La Comisión invita, por tanto, a los Estados miembros a:

• animar a las autoridades encargadas de reglamentar las comunicaciones audiovisuales y electrónicas a participar con más intensidad y colaborar en la mejora de los diversos niveles de alfabetización mediática aquí señalados;
• promover el estudio sistemático y la observación periódica de los diversos aspectos y dimensiones de la alfabetización mediática, e informar al respecto;
• elaborar y aplicar códigos de conducta y, en su caso, marcos de corregulación en colaboración con todas las partes interesadas a nivel nacional, y fomentar las iniciativas de autorregulación.

Sin conocer el contenido de la posible propuesta de Conclusiones, se puede adelantar que España es partidaria de adoptar todas las medidas necesarias para el establecimiento y desarrollo de buenas prácticas en materia de alfabetización mediática en el entorno digital.

Valores educativos.Creación de un micromapa conceptual sobre valores educativos a partir de la propia experiencia

La experiencia descrita en este trabajo fue desarrollada con alumnos de dos escuelas de bachillerato de la ciudad de Curitiba, Brasil, en una faja de edad entre 15 y 16 años.

Los alumnos fueron invitados a elaborar un micromapa conceptual que abordase los siguientes aspectos:

--tipos de mezclas (heterogéneas y homogéneas);
--clasificación de las mezclas en suspensión, dispersión coloidal y solución;
--tamaño de las partículas;
--proceso de visualización;
--proceso de separación;
--tipos de dispersiones (clasificación y ejemplos);
--tipos de soluciones (insaturadas, saturadas. ..);
--ejemplos de soluciones sólidas, líquidas y gaseosas;
--coeficiente de solubilidad;

Para desarrollar la actividad, los alumnos recibieron la orientación de utilizar el software Cmaptools, una herramienta desconocida para ellos,conforme fue relatado.

El profesor colocó a disposición un material compilado en forma sencilla, presentando lo que sería el mapa conceptual, un ejemplo de aplicación con temas relacionados a la educación y el link para que los alumnos hiciesen el download del software en sus ordenadores, ya que la gran mayoría de los alumnos posee ordenador en sus casas. El trabajo realizado en parejas tuvo como objetivo promover el desarrollo de un trabajo colaborativo y la integración entre los alumnos, adoptando una metodología innovadora con el uso de la tecnología.

En cada pareja, uno de los alumnos debería tener ordenador en su casa, para que todos pudiesen participar del proceso en forma igual y sin restricciones.

Los alumnos ya en la clase siguiente volvieron a la sala de aula fascinados con la facilidad de utilización del software, la posibilidad de modificar a cualquier instante las posiciones de los conceptos, las frases de unión, los colores y letras, así como la inserción de imágenes.

Hubo además el relato de un aluno que investigando en la Internet localizó otros softwares que permiten la construcción de mapas conceptuales como el Inspiration. El profesor permitió a los alumnos escoger otros softwares para la elaboración del trabajo.

Los resultados obtenidos sirvieron al profesor de instrumento de evaluación sobre la capacidad de los alumnos en establecer relaciones, elaborar síntesis, desarrollar la creatividad, además del análisis sobre la comprensión del contenido presentado.

Esa experiencia fue presentada en la escuela en forma de cuadro mural, lo que promovió en los alumnos un sentimiento de realización, pues cada equipo procuró elaborar el mejor mapa conceptual.

Todavía hoy, diversos alumnos solicitan al profesor que utilice esa herramienta en la clase más veces, ya que creen que ella facilita el aprendizaje.

Esa técnica innovadora de abordaje de los contenidos fue repasada para los alumnos, al mismo tiempo que se destacó que no es necesario esperar que un profesor solicite la elaboración de un mapa conceptual sobre un referido contenido, para que el alumno lo haga. Cabe a él mismo decidir sobre la utilización de esa técnica para elaborar sus resúmenes, estudiar para las evaluaciones, presentar trabajos en cualquier disciplina y contenido.

A continuación, se presentan dos ejemplos de mapas conceptuales construido por los alumnos utilizando el softwares Cmaptools e Inspiration.



Consideraciones finales

Los mapas conceptuales se presentan como un recurso o herramienta altamente benéfica en el proceso enseñanza aprendizaje, con el cual el profesor pasa a medir el desarrollo y la construcción del conocimiento por medio de una nueva y más dinámica manera de enseñar y evaluar, y el alumno pasa a comprender y dar mejor significación a aquello que aprende, dentro de un abordaje constructivista (mecánico, significativo y visual).

El mapa conceptual, en el campo pedagógico, es un instrumento que auxilia tanto al profesor en sus tareas más rutinarias, como evaluar e identificar conceptos aún no comprendidos, reforzar la comprensión, o enseñar nuevos tópicos, como al alumno en sus tareas de resumir contenidos, explotar conocimientos, hacer anotaciones durante las clases, ayudar a preparar presentaciones e identificar conceptos mal comprendidos.

Podemos concluir que el uso de los mapas conceptuales es una forma dinámica de desarrollar el raciocinio lógico y la creatividad, puesto que ellos son una representación visual informativa y comunicativa. En una única página es posible ilustrar con precisión, varios conceptos que pueden ser relacionados con aquellos ya adquiridos anteriormente o con la construcción de nuevos, lo que facilita el proceso enseñanza/ aprendizaje y la representación del aprendizaje de forma significativa.

Además, una cuestión importante para discutir es el poco uso que se hace de esa y de otras herramientas tecnológicas en el proceso educacional, por los más diversos motivos. Resalta entre ellos, la falta de conocimiento de buena parte de los profesores, que en su mayoría, no tienen acceso a nuevas tecnologías y metodologías de enseñanza, así como a un proceso de formación continuada eficiente, que supere el paradigma de escuche-lea-memorice-repita, todavía común en nuestras escuelas. Se destaca además la falta de interés de los educandos en usar el ordenador y sus programas, en el proceso de formación académica, la poca divulgación de trabajos realizados por profesores y alumnos, tanto en el nivel de graduación como en la escuela básica.

Es necesario que comprendamos finalmente nuestra entrada en la era de la información, donde prevalece la construcción del conocimiento, que puede ser auxiliado por metodologías basadas en los principios de construir, reflexionar, criticar, producir, argumentar y proyectar el conocimiento de forma significativa, como es el caso de los mapas conceptuales.

http://www.cibersociedad.net/congres2006/gts/comunicacio.php?id=969&llengua=es

jueves, 15 de enero de 2009

Cómo emplean el tiempo los estudiantes y el valor del compromiso

La información obtenida nos permitió conocer de manera general la forma como los estudiantes emplean su tiempo durante las actividades diurnas de sus rotaciones clínicas, contar con una base objetiva para el cálculo aproximado de su equivalencia en créditos académicos y aproximarnos a la percepción de los estudiantes sobre el valor educativo y de disfrute de las diferentes actividades realizadas en las rotaciones clínicas. Si bien otros estudios publicados han sido diseñados para identificar las diferencias entre la oportunidad de acceder a diferentes experiencias
de aprendizaje, dependiendo de las características de las instituciones donde se realizan las rotaciones, nuestro estudio refleja la amplia gama de instituciones donde los nuestros las realizan. Aunque esta variedad enriquece sus experiencias de aprendizaje, al ampliar su exposición hacia diferentes tipos de pacientes, de patologías y de quehacer médico y administrativo, también representa una dificultad para asegurar una perspectiva pedagógica compartida y la continuidad en su formación integral.

Los principales hallazgos de nuestro estudio muestran que el promedio de tiempo empleado por los estudiantes en un día típico de sus rotaciones clínicas es de 10.8 horas, tiempo menor que el de los estudiantes de cirugía en un estudio realizado en la Universidad de Michigan (13 horas al día); pero, superior al de estudiantes
de la Universidad de Maastricht, en Holanda, pues estos emplean 35 h semanales en
actividades de aprendizaje, en comparación con las 50,6 h de los nuestros. Nuestros estudiantes utilizan 7.3 (69%) horas promedio diarias en actividades de aprendizaje, mientras que los estudiantes de medicina de la Universidad de Londres tienen 5.5 horas diarias en promedio en actividades académicas, y los de la
Universidad de Michigan tienen 10.2 horas (11).El porcentaje de tiempo que nuestros estudiantes emplean en actividades no académicas requeridas para garantizar su presencia en la institución clínica, como el desplazamiento y la alimentación (31%), es similar al de los estudiantes de medicina de la Universidad de Londres (10). Estos hallazgos nos ubican en un punto intermedio entre las universidades norteamericanas y las europeas de referencia, respecto al trabajo presencial que nuestros estudiantes realizan en las actividades prácticas clínicas.

En nuestro estudio, la actividad que ocupa el mayor porcentaje de tiempo es la asistencial acompañada por el docente (15.4%), mientras que en el estudio de la Universidad de Michigan (11) fue el tiempo en salas de cirugía (17.4%), y en el estudio de la Universidad de Londres (10) fue la docencia con instructor (19.8%). Esto nos muestra que en las tres escuelas la actividad a la que más tiempo se le dedica está constituida por las actividades asistenciales con acompañamiento docente. La distribución de actividades por semestre refleja la diferencia en el énfasis dado a éstas según cada especialidad; por ejemplo, en VIII semestre (cirugía y especialidades quirúrgicas) es mayor la inversión de tiempo en las actividades asistenciales que incluyen la participación en procedimientos quirúrgicos, mientras
que en VI semestre (Medicina Interna y especialidades clínicas) hay mayor énfasis en las actividades académicas (figura 4).

Llama la atención el tiempo de contacto directo de nuestros estudiantes con el paciente en actividades asistenciales como son la elaboración de historias clínicas y evoluciones diarias: mientras que los estudiantes de la Universidad de Londres tienen treinta minutos diarios en promedio de contacto con los pacientes sin supervisión, los nuestros tienen un promedio de sesenta minutos al día en actividades equivalentes (10).

Es interesante resaltar que el 35% del tiempo del estudiante en la rotación clínica corresponde a actividades desarrolladas en contacto directo con los pacientes, lo que representa un mayor aprovechamiento de los escenarios de aprendizaje por la íntima relación entre lo que sucede allí y lo que será el desempeño como profesional. A pesar de esto, nuestros estudiantes le asignan el mayor valor educativo al estudio por fuera de la institución y a las actividades académicas dentro de las instituciones en comparación con el asignado a las actividades puramente asistenciales, las cuales tampoco parecen ser suficientemente disfrutadas por ellos según se desprende de la calificación promedio que les asignan: 3.6.
Esto parece reflejar una concepción tradicional del proceso de aprendizaje, por un lado, de estudiantes comúnmente más inclinados y entrenados en la memorización de información que en la posibilidad de aplicar flexible y autónomamente los conocimientos en la práctica real y, por el otro, de los sistemas de evaluación que al estar excesivamente centrados en la evaluación de conocimientos memorizados (información), no estimulan suficientemente el interés del estudiante por la interacción con el paciente.

Respecto al cálculo de la equivalencia en créditos del trabajo realizado en las rotaciones clínicas,conviene recordar que este análisis corresponde apenas a un punto de partida en el proceso definitivo de establecer equivalencia en créditos a las rotaciones clínicas, por tres razones principales: hemos partido de un promedio en horas que involucra una muestra representativa de todas las rotaciones y asignaturas de los cinco semestres estudiados, por lo cual el total de créditos para un semestre debe ser repartido entre las asignaturas que componen cada período académico; las horas de trabajo consideradas en este estudio no incluyeron
las correspondientes al estudio y al trabajo en horarios nocturnos y de fines de semana ni a los turnos (actividades presenciales de sus rotaciones) realizados en estos horarios, y la facultad de medicina debe asignar un tiempo para estudio
independiente del estudiante que corresponda adecuadamente a cada una de las actividades realizadas en las rotaciones. A pesar de estas salvedades, al calcular el número de horas de trabajo que corresponde a esos 19 créditos académicos, encontramos que para los cinco semestres clínicos analizados (VI a X, es decir, sin contar los dos semestres del internado rotatorio) la carga horaria para el estudiante sería de 4560 horas. Esta carga horaria resulta muy superior al compararla con el total promedio de horas de los cursos clínicos en las universidades europeas (2169, rango entre 788 y 4761 horas) (9). Aunque esto podría explicar el reconocimiento al buen desempeño en la práctica clínica de nuestros médicos en otros países de acuerdo con planteamientos propuestos por importantes
pensadores de la educación médica (12), un programa de estudios que demanda tan alta ocupación del tiempo de los estudiantes podría ser excesivo y se debería evaluar para facilitar la disposición de tiempo que permita a los estudiantes el desarrollo de otros aspectos esen-ciales en su formación, como proponer (y/o participar en) proyectos de investigación y de proyección social, o en la exploración de intereses extracurriculares y en otras asignaturas electivas. El proceso para la definición de niveles máximos y mínimos de dedicación académica y la generación de un sistema
de créditos equivalentes está representado en la Comunidad Europea por el European Community Course Credit Transfer System (ECTS) acogido ya por la mayoría de países asiáticos y está siendo promovido por el programa Columbus en América Latina, con el compromiso de Colombia.

Finalmente, como observaciones al diseño de nuestra investigación, llamamos la atención sobre la aceptable tasa de respuesta por parte de los estudiantes convocados para el diligenciamiento de los cuadernillos, apenas inferior a
la de estudios similares que contemplaron algún tipo de recompensa económica por su
colaboración; consideramos que para futuras investigaciones el instrumento para la recolección de datos debe abarcar los siete días de la semana y un horario de 24 horas para obtener resultados con mejor representación del horario completo del estudiante. Finalmente, para completar la información sobre la formación clínica de
médicos en el pregrado de nuestra Facultad es indispensable proyectar un estudio sobre la experiencia del internado rotatorio (semestres XI y XII).

www.urosario.edu.co/FASE1/medicina/documentos/facultades/medicina/ciencias_salud/vol4nE/15_tiempoestmed_vol4nE.pdf

Cómo emplean el tiempo los estudiantes en su vida cotidiana y qué podría pasar en las aulas

La Internet está evolucionando. La “Web 2.0″ es el nombre que se da al estado actual de desarrollo. Anderson (2006) describe “seis grandes ideas que hay detrás de la Web 2.0″. Éstas son:

contenidos generados por los usuarios
el poder de masa
datos sobre una escala épica
arquitectura de la participación
los efectos de red
apertura.
A efectos del presente artículo, cuatro de estas ideas son de particular importancia.

El contenido generado por el usuario se refiere a la facilidad de creación de contenido. Servicios Web, como Bebo, Wordpress y YouTube lo han hecho fácil, y cada vez los jóvenes lo están haciendo, con los sitios de redes sociales convirtiéndose en una parte significativa de la cultura contemporánea.

El poder de la masa se refiere a la inteligencia colectiva que puede aprovecharse de los grandes grupos de personas. La premisa básica es que, con sujeción a determinadas condiciones, un grupo numeroso de usuarios informados (aunque no sea experto) pueden tomar mejores decisiones que cualquier individuo experto. Servicios Web, como Wikipedia y Digg se citan como ejemplos de esta inteligencia colectiva.

La arquitectura de participación se basa en las ideas gemelas de que los servicios Web deben ser fáciles de utilizar (lo que fomenta la participación) y organizados de tal manera que mejoran a medida que los usan más personas. Google Search es un buen ejemplo ya que es muy inmediato, y sus algoritmos de búsqueda aprenden de los resultados de búsquedas anteriores. Un aspecto de la facilidad de uso es la idea de que no sólo es fácil crear nuevo contenido, sino también que debería crearse fácilmente a partir del pre-existente o fácilmente combinado con el de otros servicios Web (”mash-ups”).

La apertura no sólo se refiere al uso de software de fuente abierta para muchos servicios Web 2.0, sino también a la filosofía de intercambio libre de información y recursos entre los usuarios, haciendo que capturar y compartir información o recursos sea relativamente inmediato, tal como embeber vídeos de YouTube en un blog. Los términos de copyright liberales de las licencias Creative Commons ilustran esta filosofía.

III. EL CARÁCTER DE LOS APRENDICES CONTEMPORÁNEOS

Es en este entorno en el que viven y aprenden los estudiantes de hoy. En Digital Natives, Digital Immigrants, Prensky (2001) sostiene que hay una distinción fundamental que debe hacerse entre los estudiantes de hoy y los del pasado debido a “la llegada y rápida difusión de la tecnología digital … un evento que cambia las cosas de manera tan fundamentalmente que no hay absolutamente ninguna vuelta atrás”. Etiquetó a estos nuevos aprendices como “nativos digitales” y los contrastó con “inmigrantes digitales”: “el principal y único problema que enfrenta la educación hoy es que nuestros profesores inmigrantes digitales, que hablan una lengua anticuada (de la era pre-digital), están luchando para enseñar a una población que alcanza el máximo de una nueva lengua totalmente nueva”.

Los aprendices de hoy también se conocen por otros nombres. Diana Oblinger (2003), de Microsoft, les llama la “generación del Milenio”: “Los milenarios muestran distintos estilos de aprendizaje. Por ejemplo, sus preferencias de aprendizaje tienden hacia el trabajo en equipo, actividades experimentales, estructura y uso de la tecnología. Sus puntos fuertes incluyen la multitarea, orientación hacia el objetivo, actitudes positivas y estilo colaborativo”. Desde la perspectiva del estudiante, los nativos digitales están “guiados académicamente … nos negamos a aceptar los discursos o sermones de los mayores en valor nominal… nuestra experiencia tecnológica nos hace más inteligentes, fácilmente adaptables, y con más probabilidades de emplear la tecnología para resolver los problemas” (Windham, 2005).
A partir de la literatura sobre “nativos digitales” surge un conjunto común de características con respecto a sus estilos de aprendizaje. Éstos son:

uso hábil de herramientas
aprendizaje activo en lugar de recepción pasiva de conocimiento
experiencias de aprendizaje auténticas en lugar de tareas planificadas o estructuradas
orientación a la tarea (no al proceso)
aprendizaje cuando se necesita (just in time)
búsqueda no memorización
no saben la respuesta, pero sí donde encontrarla
Google, no bibliotecas
colaboración, no competición.
Cuando se le impone una tarea a un joven, es probable que vaya a la Wikipedia, busque información relevante en Google, pida ayuda a sus amigos a través de Hotmail o MSN, y por último reúna la información resultante en un documento coherente utilizando una serie de aplicaciones basadas en Web y de escritorio. A no ser, supuesto, que la tarea sea la misma que la del año anterior, en cuyo caso será suficiente un simple correo-e a un amigo (o alguien más en su red social ampliada) pidiendo la respuesta para estos aprendices orientados al objetivo.

El escenario descrito es una visión hipotética de la enseñanza y del aprendizaje formal que se supone que el estudiante debe seguir. Hay una creciente desconexión entre la vida de los estudiantes dentro y fuera del aula. “Las escuelas no deben esperar que los estudiantes dejen el siglo 21 en el guardarropa. Por ejemplo, muchas escuelas no permiten el uso del correo-e, mensajería instantánea, teléfonos móviles o blogs” (Owen et al 2006). Y la lista de tecnologías prohibidas es cada vez mayor. Twist y Withers (2006) describen las formas en que los jóvenes realmente aprenden, como el “curriculum oculto”, los “espacios digitales informales”, como Facebook y MSN, que los estudiantes usan habitualmente para fines sociales y educativos.

La vida de los estudiantes fuera de la escuela y de la universidad son cada vez más ricas y estimulantes, lo cual refleja la gran revolución tecnológica que está teniendo lugar en la sociedad. Como resultado de ello, la educación está cada vez desconectada. El aula es una especie de “realidad virtual”, una zona deslustrada, libre de tecnología, que guarda escasa relación con la realidad cada vez más tecnológica de la vida real de los estudiantes.

Dado que la Web 2.0 es vida 1.0 para la mayoría de los estudiantes, se trata de un ajuste fácil para la mayoría de los jóvenes. Ellos ya están utilizando los servicios Web 2.0 como parte de su vida cotidiana. Aceptar su página de MySpace o su canal YouTube les parece sólo “lo justo”. Y, al hacerlo, se reduciría la percepción del abismo entre la educación y la “vida real”. También proporcionaría un incentivo para los aprendices: en lugar de tareas artificiales que impliquen prácticas “antiguas” (tal como la escritura a mano o el uso de la biblioteca), la evaluación podría ofrecer retos reales utilizando herramientas reales, las mismas herramientas que utilizan actualmente fuera de clase y usarán en el lugar de trabajo.

Hay inconvenientes. Los estudiantes mayores (nuestros inmigrantes digitales) no están utilizando los servicios Web 2.0 o, al menos, no rutinariamente. No tienen páginas de MySpace o vídeos de YouTube para usar en la acreditación del aprendizaje previo. Y puedes carecer de algunas de las principales competencias Web 2.0 (como habilidades de búsqueda) y actitudes (por ejemplo, disposición a compartir). Nuestros nativos digitales, pueden no querer mezclar sus vidas pública y privada en la forma en que se sugiere en este artículo. Pueden querer una línea divisoria clara entre su vida académica y la personal, y pueden rebelarse contra intentos de mezclar los dos … aunque habrá que eliminar las barreras entre las vidas social, educativa y profesional si el aprendizaje permanente ha de ser una realidad.

Supone pasar del mundo analógico del pasado al mundo digital del futuro. Si se hace, se presenta un reto para los profesores y los organismos para la acreditación. Los profesores deberían adquirir habilidades para comprender mejor la Web 2.0 y apreciar el mundo de los nativos digitales. Los organismos de acreditación/adjudicación de ayudas tendrían que hacer frente al reto de la creación de pruebas para evaluar la dificultad de de medir habilidades, tales como la colaboración, y hacer frente a cuestiones tales como el plagio y la evaluación por pares. Tanto los profesores como los organismos que necesitan evaluar tendrían que aceptar las evidencia digital en todas sus formas y fijar tareas más auténtico que reten realmente (y estimulen) a los estudiantes.

http://www.concepcionabraira.info/wp/2008/09/13/ideas-sobre-la-evaluacion-necesaria-evaluacion-20-segun-r-j-elliot/

miércoles, 14 de enero de 2009

Visionado y comentario del vídeo. Equipo de Julio Cabero: Inmigrantes digitales y nativos digitales



LA EXPRESIÓN 'DIGITAL NATIVES' (los nativos digitales) está entrando en el lenguaje común. Algo comparable a como googlear se volvió verbo. La expresión nativos digitales fue utilizada varias veces durante una conferencia organizada a mediados de mes para explicar a inversionistas una nueva tendencia. Es más, los organizadores habían invitado a dos nativos para que quede claro que no utilizan las tecnologías de la información y la comunicación (TIC) como los menos jóvenes. Hoy día, quien quiera tener idea de hacia dónde vamos tiene que entender cómo las usan los nativos.

La expresión digital natives ha sido lanzada por Marc Prensky en oposición a digital immigrants (los inmigrantes llegados tarde a las TIC), en un ensayo publicado en 2004 bajo el título The death of command and control (La muerte del mando y control). La mayor diferencia es que los nativos son escribas del nuevo mundo capaces de crear los instrumentos que utilizan. Y cuando no los crean, utilizan de manera particular los que está a su alcance.

En una primera versión de un ensayo todavía no acabado (se encuentra en el sitio marcprensky.com, y los comentarios son bienvenidos), el autor distingue ahora 17 campos en los cuales las diferencias son significativas. Tomemos algunos ejemplos. Los casos más evidentes son probablemente la ortografía, que se vuelve código impenetrable para los adultos; los SMS que algunos pueden teclear con una sola mano en el bolsillo a velocidad razonable; o su manera de utilizar las mensajerías instantáneas con 10 ventanas abiertas, y 10 diálogos simultáneos en los cuales comunican por fragmentos mientras los inmigrantes tienden a llevar una conversación completa con una persona antes de pasar a otra.

Comunes ya entre periodistas y políticos, los blogs (bitácoras en línea) de los inmigrantes son principalmente "un instrumento para compartir conocimientos intelectuales". Los nativos prefieren compartir emociones. No sólo venden y compran en línea. Encuentran empleos, amigos y hasta parejas, lo cual no es tema de comentarios, pero sí un hecho de su vida cotidiana.

Su relación con la información es diferente. "En contraste con sus padres, que solían querer guardar en secreto cualquier información que tuviesen ("el conocimiento es poder" era su refrán), los nativos digitales adoran compartir y distribuir la información en cuanto la reciben ("compartir el conocimiento es poder' podría ser su nuevo refrán no formulado", escribe Prensky).

Hasta los juegos electrónicos cambian. Mientras que los primeros eran lineales (hacía falta matar el mayor número posible de personas para llegar a un objetivo fácilmente identificable), los más recientes son complejos e implican la participación y la coordinación de decenas, y hasta miles de jugadores, como podemos ver en los más populares juegos de rol en línea. "Jugar en solitario es cosa del pasado, un vestigio del tiempo aberrante en el cual las computadoras todavía no estaban conectadas," escribe Prensky. Quienes juegan hoy crean sus herramientas o sus armas, crean espacios, universos y juegos enteros. Ya no les basta utilizar la tecnología: se la apropian. Un estudio de Jakob Nielsen publicado a principios de año mostró, con razón, que "todos los jóvenes no son expertos".

Pero la gran virtud de este nuevo ensayo de Prensky titulado The emerging online life of the digital natives: what they do differently because of technology, and how they do it (La emergente vida en línea de los nativos digitales: qué hacen de manera diferente debido a la tecnología y cómo lo hacen) es dar una valiosa pista a quienes quieren saber en qué direcciones están evolucionando las TIC.

Quien quiera entender lo que está a punto de afectar al público en general debería estudiar lo que hacen los inmigrantes digitales. Sin embargo, siguiendo a los nativos, uno puede tener una idea de las tendencias de lo que en términos artísticos se suele llamar vanguardias, las que abren, no siempre en el primer intento, las puertas del futuro.

http://www.elpais.com/articulo/semana/nativos/mundo/digital/futuro/TIC/elpeputec/20051027elpciblse_1/Tes

Ciudadanía audiovisual y digital



La brecha digital puede ser definida en términos de la desigualdad de posibilidades
que existen para acceder a la información, al conocimiento y la educación mediante las nuevas tecnologías. ¿Qué se puede hacer desde el mundo educativo para combatirla?. Algunas medidas que se pueden adoptar se situarían en torno a los siguientes aspectos: superar la mera concepción de implantación de infraestructuras, presencialidad, incorporar tecnologías apropiadas y flexibles, no sólo centrarnos en el hardware sino también en el software, formación del profesorado, potenciar la investigación, favorecer el acercamiento entre el mundo educativo y de la industria, y potenciar la participación de la sociedad civil.

“Educación e inclusión” (aumentar el número de profesores formados, mejorando su capacitación gracias a las TIC, a la formación a distancia (e-learning), y a redes de conocimiento que vinculen a unos profesores con otros, ampliar la disponibilidad
de materiales y recursos docentes de calidad mediante las TIC, impartir programas de educación y alfabetismo, especialmente aquéllos destinados a grupos con riesgo de exclusión, recurriendo para ello a las tecnologías idóneas, ejercer influencia en la opinión pública para promover la igualdad de sexos y la inclusión de colectivos desfavorecidos, basándose en programas de información y comunicación que utilicen las TIC, o mejorar la eficiencia de los ministerios de educación y organismos afines, promoviendo la aplicación estratégica de tecnologías posible las TIC.).

A la hora de explicar la brecha digital, nos encontramos con dos grandes tendencias, que podríamos considerar como dura y blanda. Dentro de la línea que podríamos denominar como blanda, se indica que el problema a resolver es simplemente de infraestructuras de tecnologías de telecomunicaciones e informáticas; en contrapartida existe otra visión más dura, y más realista, que considera que el problema es consecuencia de la desigualdad social y económica que se da en la sociedad capitalista, que lo mismo que separa a los países por la calidad de la
educación y servicios médicos, también se da por el grado de utilización que pueden hacer delas TICs.

Tales visiones como podemos imaginarnos, implican posiciones diferentes de abordarla
y solucionarla. En una, universalizando el acceso a Internet, se resolverá todo lo demás, y se disminuirá la distancia digital, la brecha, entre las personas y los países. Mientras que desde la otra perspectiva, al ser la brecha digital consecuencia de la desigualdad social, o se ataca ésta o todas las medidas que se adopten de extensión de las redes, seguirán beneficiando exclusivamente a un colectivo, e indirectamente seguirá ampliándose la misma brecha. En cierta medida podríamos decir que la brecha digital, es consecuencia directa de la brecha
socioeconómica existente entre los países, las regiones, las instituciones y las personas. El propio Bill Gates, en una reunión de expertos sobre la temática que nos ocupa, indicó con claridad que la población más pobre no necesita computadoras, sino una mejor atención sanitaria.

Se ha dicho diversas veces que el ciudadano del futuro tendrá que estar alfabetizado no sólo en el dominio lectoescritor, sino también para interaccionar y comunicarse con las nuevas tecnologías, pues serán las herramientas básicas de intercambio de información en el siglo XXI; es decir, en eso que se ha denominado como alfabetización digital.

Esta posición está siendo asumida con más fuerza que nunca, y se está dando un giro
radical a la incorporación de las TICs a los procesos de enseñanza-aprendizaje, de forma que se está pasando del concepto “aula de informática” a la “informática en el aula” y de “estar en al red” a “formar parte de la misma”. Adoptando al mismo tiempo medidas para favorecer la penetración de las TICs, no sólo en el territorio académico y educativo, sino también en el doméstico.

Uno puede navegar de forma maravillosa por internet, pegando saltos de una link a otra, y aparecer en no se sabe qué sitio, y desconocer al mismo tiempo los motivos que nos han llevado a ello. El realizar asociaciones cognitivas significativas entre los diferentes sitios, requiere un grado de madurez cognitiva y de preparación del usuario que no siempre se tiene.

Es importante siempre tener en cuenta que en Internet nos encontramos con bastante
información, cosa que es muy distinta al conocimiento, requiere una reelaboración y adaptación cognitiva por parte del usuario.

Pero esta brecha digital no es sólo de tipo de capacidad técnitécnica de acceso y de
formación, sino también, aunque está relacionada con la última, idiomática. La realidad es que el inglés es el idioma que domina la red, y como lengua del imperio los lugares más novedosos, más actualizados e interesantes desde un punto de vista científico se encuentran en ese idioma.

No podemos olvidarnos tampoco de la brecha digital generacional, que tiene un impacto
significativo en la educación como posteriormente veremos. Estoy de acuerdo con Negroponte (1995, 20) cuando señala: “Algunas personas se preocupan por la división social que existe entre los ricos y los pobres en información, entre los que tienen y los que no tienen, en el Primer y Tercer Mundo. Pero la verdadera división cultural va a ser generacional.”

En definitiva, los jóvenes son grandes consumidores de las tecnologías de la sociedad
del conocimiento, los multimedias y los telemáticos, mientras que los adultos, lo son más de tecnologías de la sociedad postindustrial, es decir de los audiovisuales e impresos. Y ello lo podemos perfectamente observar en la rapidez con que los jóvenes dominan con cierta rapidez las nuevas tecnologías, como descubren los lugares “ocultos” y “no ocultos” en Internet, o la facilidad con que utilizan las nuevas herramientas para comunicarse chat, foros, SMS,…

Para nosotros esta separación va a tener repercusiones tanto en las actitudes que tengan hacia las mismas, como en la seguridad con que se encuentren para utilizarlas. Y esta brecha digital generacional va a tener consecuencias directas en la educación, como a continuación vamos a indicar.

Se ha dicho de forma abundante que el problema para la utilización de las TICs en los
procesos de enseñanza-aprendizaje, no viene de los alumnos sino fundamentalmente de los profesores. Y por lo comentado, podemos observar que es cierto, ya que los alumnos suelen tener mayor dominio de las tecnologías de la comunicación de la cibersociedad que sus profesores. En contrapartida, el profesorado cada vez se siente más inseguro en el nuevo entramado tecnológico donde se encuentran, por diferentes motivos, que van desde su falta de dominio; la rapidez y velocidad con que estos se incorporan a la sociedad, de forma que nada más que aprender la última versión de un navegador, surgen otros, que requieren, breves, pero algunas adaptaciones; y lo que puede ser más importante para el profesor, el deseo de no
presentarse con una imagen de incompetentes delante de sus estudiantes. Muchas veces, la forma de evitar estas posiciones, es no utilizarlos, aunque después se aluda para ello a otro tipo de componentes y motivos: “la ciencia con sangre entra”, “los medios solamente sirven para distraer”, “lo he venido haciendo siempre así y los resultados para mí son satisfactorio”, “si no hay esfuerzo no hay rendimiento”,… Y esta no utilización, tendrá diferentes consecuencias negativas que irán, desde no aprovechar las posibilidades que estas tecnologías ofrecen,desestimar la habilidad cognitiva que presentan los estudiantes para interaccionar y decodificar
mensajes establecidos por estos medios, etc.

Si esta inseguridad es amplia en tecnologías que podríamos considerar como normalizadas en las que serían más específicas, o que necesitan adaptaciones en función de las características de los alumnos es mayor.

Creo que en los últimos tiempos se están produciendo movimientos
interesantes para introducir otras tecnologías en los centros, para que todo el profesorado se preocupe por su conocimiento y explotación, y para potenciar su estudio y reflexión. Y además fuera de hechos esporádicos, como son los “años especiales tematizados”. Ejemplos de lo que vengo a decir, es como en los últimos años en los planes de estudio de Pedagogía, Psicopedagogía o Magisterio, se han incorporado o asignaturas que analizan esta problemática de las TICs y la diversidad de los alumnos, o su problemática se ha incorporado dentro de los planes de estudio de las asignaturas de “Tecnología Educativa” o “Nuevas tecnologías aplicadas
a la educación”. Al mismo tiempo un grupo de compañeras se han especializado en el análisis de esta problemática: Alba, Negré, Prendes,…

Creo que es necesaria una colaboración más estrecha entre el mundo de la empresa y la
educación, para la creación, la implantación y la evaluación, de tecnologías que vamos a denominar aquí como especiales para los centros educativos. Ello pasa por salvar ciertos recelos que algunas veces ha existiendo en ciertas personas, por el acercamiento del mundo comercial y el educativo. Desde mi punto de vista, las experiencias y las adaptaciones que de determinadas tecnologías podemos hacer los que nos dedicamos a este mundo de la enseñanza son muy limitadas, sino contamos con el mundo de la empresa y la industria. Y también desde la industria se debe contar con la opinión y reflexión de los que constantemente trabajan con los sujetos objetos de estas tecnologías.

Por último, y no por ello menos importante, se debe crear una conciencia en la sociedad civil de lo significativo que es el romper las diferentes barreras que mantienen las diferentes brechas digitales. En otros contextos, los voluntarios desempeñan un papel importante en la sociedad, y creo que se deben potenciar los movimientos de los cibervoluntarios, como un elemento para impulsar la sociedad del conocimiento, y eliminar la brecha digital en determinados colectivos. Lógicamente estos cibervoluntarios pueden trabajar independientemente del espacio donde se encuentren los receptores de sus ayudas. Si las TICs cambiar los modelos sociales, también cambiarán los modelos de participación de los ciudadanos en la sociedad.

Las brechas digitales son motivos de exclusión de la sociedad del conocimiento, y de
configuración de una marginación social y personal, que estados democráticos de bienestar do deben, y no pueden asumir como irresoluble. Como siempre, es mejor prevenir que curar.

www.tecnoneet.org/docs/2004/jcabero04.pdf

martes, 13 de enero de 2009

El copyright en la práctica cotidiana. Moral del mínimo esfuerzo

Por aprender el tema, he leido el artículo del DR Pedro Rodríguez Rojas por investigar cómo las tecnologías venden que se tendrá éxito académico sin ningún esfuerzo.El nombre de su artículo es ¨La educación en la era tecnogerencial¨.
ERA GERENCIAL: ¿LAEDUCACION NO ES UN NEGOCIO?

La opinion de las bases de sustentación de esta teoría son los estudios realizados en la Escuela de la Investigación Acción, iniciada en los cuarenta por Kurt Lewin, un investigador de oficio y el empresario John Collier y que sería perfeccionada por los aportes de Argyris y Schon , quienes incursionaron en la microsociología a través del estudio de la vida cotidiana. Años después el propio Kurt Lewin fundador de la Escuela de Investigación Acción, realizo fuertes críticas a la tendencia de esta a satisfacer más la demanda de los clientes que a los propios fines del proceso investigativo y la desvinculación de estos estudios con el contexto donde se desarrollan y a las relaciones implícitas o explícitas con el poder. Uno de los principios de esta teoría es que no se puede construir conocimiento científico como si el objeto de estudio fuera una muestra, el investigador forma parte de la realidad a investigar y debe involucrarse en la realidad estudiada, no sólo para la contemplación o descripción fría sino para la acción, fundamentalmente para contribuir en la resolución de problemas.

Pretender estudiar organizaciones sin contextualizar, sin revisar el proceso histórico en el que está inmersa, sin cuestionar su posible generación como producto de imposiciones, actos de violencias enfrentados al proceder moral es convalidarla automáticamente. De esta manera se pudiera estar buscando calidad, eficiencia, productividad en organizaciones donde la mayoría de sus miembros pudieran estar ajenos al proceso total y al producto final de la organización, es decir alienada la percepción del trabajo como un proceso creativo natural del hombre y no solo una obligación para lograr el sustento., incapacitados muchas veces de obtener el producto de la organización en que se desempeñan. En el caso concreto de las instituciones educativas, como otras de carácter socio político y cultural, pudieran estar para contribuir a la reproducción de sociedades donde prima las injusticias y desigualdades y pudieran funcionar bien en sí mismas pero sin capacidad para cuestionar su propio sentido y trascendencia. Para Heidegger (citado por Álvarez):

“La ausencia de pensamiento es un huésped inquietante que se insinúa hoy en todo el mundo. Este huésped inquietante se reconoce no en la estupidez sino en su eficacia: preocupado por el cómo. Y no por el porqué, rebaja la inteligencia a la condición de instrumento, de simple agente de ejecución, y abandona la cuestión del sentido por la brusquedad exclusiva, desenfrenada, incesante de la performance o el rendimiento. Bajo su égida todo funciona, pero con un olvido cada vez mas denso de la destinación o finalidades de este funcionamiento generalizado” (p.105).
Sin la menor duda estas corrientes responden a teorías administrativas para el control de las conductas humanas, para la obtención de los mayores beneficios a quienes dirigen las organizaciones. Tal como lo afirma Mc Gregor, uno de los fundadores de la teoría del desarrollo organizacional: “una administración que tenga éxito depende, no del todo, pero si en grado considerable de la capacidad para predecir y controlar la conducta humana” (1994 P.4). Este autor aclara que la administración y la gerencia son un arte y no una ciencia que utiliza los conocimientos generados por otras ciencias, pero su fin es la actividad práctica y no la construcción teórica. Otro reconocido autor de esta teoría, Peter Senge, en su obra clásica La Quinta Disciplina, desarrolla sus cinco principios (destreza personal, modelos mentales, creación de una visión compartida, disciplina y pensamiento de sistema) insistiendo en la primacía del control y la disciplina Para los teóricos del desarrollo organizacional, toda organización tiene principios, valores , unos ”significados compartidos” que denominan cultura organizacional y cuya asimilación se realiza a través de los principios de la teoría del Aprendizaje Organizacional. Esta cultura es nuevamente percibida como neutra, aséptica, sin tomar en cuenta contextos y que ella reproduce formas sociales de dominación.

-¿DÓNDE ESTAN LA TEORÍAS EDUCATIVAS?

No tenemos la menor duda de que la propagación de este discurso gerencial en la educación, sin discusión y procesamiento tiene que ver con las propias debilidades del sistema educativo que señalamos al inicio y con la muy poca producción teórica y filosófica de la educación y que tradicionalmente lo que ha hecho es a apropiarse de las teorías que han surgido desde la sociología y fundamentalmente de la psicología.

Esto mismo ha sucedido con las Ciencias de la Educación, donde las diversas disciplinas que abordan lo educativo están enfrentadas (psicología, sociología, economía, antropología, lingüística, etnografía, entre otras) y que pretendiendo comprender a la educación, cada una desde sus parcelas, han perdido la unidad del proceso: su sentido. Según Ugas: “El discurso pedagógico no puede seguir siendo un amasijo de saberes artificialmente aglomerados en un corpus teórico llamado Ciencias de la Educación las cuales refieren a un todo sin especificidad...” (1997 p.60)
Además estas “Ciencias” cada una con su “arsenal teórico” y metodológico, estudian en la mayoría de los casos a la educación como un “objeto” de estudio aparte. La mayoría de lo que se conoce como investigación educativa comprende un análisis desde la perspectiva psicologista o sociológica sobre la educación y no en y dentro de la educación. Tal como lo afirma Padrón: “...esos movimientos epistemológicos e innovaciones teóricas han ocurrido desde afuera hacia adentro de la investigación educativa y jamás en sentido inverso” (1996 p.60)

Hasta los años cuarenta del este siglo XX aún no se hablaba de investigación educativa sino de psicopedagogía, y a pesar de los impactos del racionalismo deductivo poperiano, lo cierto es que la investigación educativa se ha quedado anclada al pragmatismo inicial.

Y, ya en la década de los 60, algunas ciencias sociales habían empezado su camino hacia la deducción teórica, de modo que para esa fecha, los únicos productos de corte positivista – mecanicista (al estilo de Viena) estaban en el área de la psicología, la sociología y la educación (...), no puede pasarse por alto el hecho de que la I. E. en conjunto, continúan siendo empírica e inductiva, tanto como podía serlo la más clásica investigación positivista del Círculo de Viena.(iden)
Si bien esto ha venido cambiando, hasta hace pocos años la mayoría de investigadores educativos no eran educadores, o ejerciendo la práctica educativa, no tenían “formación pedagógica”, no estaban formados (en el sentido de capacitados) para la enseñanza. El docente poco reflexiona sobre su trabajo y cuando lo hace parte de las teorías y metodologías de otras ciencias.

A Modo de Conclusión

No pretendemos como lo hemos señalado, desdeñar el discurso de las técnicas gerenciales, de lo que se trata es de no caer en las trampas ideológicas que estos discursos conllevan, y tener claro que el problema educativo no se resuelve sólo con técnicas o instrumentos, que la teoría administrativa así como el uso de las nuevas tecnologías pueden ser elementos e instrumentos válidos y provechosos siempre y cuando se tenga claro previamente un proyecto educativo sustentado filosófica y teóricamente y enmarcado dentro de un proyecto de país que nos permita formar a los hombres. En el discurso gerencial, igual que el discurso del uso de las nuevas tecnologías en su aplicación a la educación, pareciera ser que lo importante es cómo se administra la información y cuáles son las técnicas apropiadas para su apropiación por parte de los estudiantes, quedando sin resolver el qué se enseña y para qué se enseña.
El replanteamiento de una nueva pedagogía para América Latina es una prioridad, no sólo de los Estados Nacionales, sino de sus pobladores. La difícil situación económica y social de la región niega cualquier posibilidad de pensar en el fin de la escolaridad. Por el contrario de lo que se trata es de formular una nueva pedagogía que cumpla con algunos principios mínimos:
1.- Rescatar el saber pedagógico, entendido este como la unificación de “ciencias de la educación” y “saberes específicos” de la practica educativa.
2.- Replantearse una nueva epistemología educativa que parta de la reconstrucción histórica de nuestra propia historia educativa.
3.- Abordar teóricamente la educación pero con categorías y perspectivas epistemológicas propias.
4.- Enfrentar la pragmatización de la educación hoy en marcha con la revolución tecnogerencial.
5.- Defender y promover una conciencia colectiva crítica no dogmática que nos permita construir y fortalecer nuestra identidad frente a la globalización.
6.- Analizar el impacto y la racionalidad de las nuevas tecnologías y el discurso gerencial en la educación.
7.- Replantear el papel de las universidades como centros formadores de docentes.
8.- Valorizar la comunicación versus la información en el proceso educativo.
9.- La difícil tarea de evitar los complejos mesiánicos adjudicados a la educación.
Lo más importante de ésta, nuestra pedagogía, es romper con la amenaza de la generación de “los idiotas informados”, y seguir luchando por que nuestros centros de estudios sean antes que todo espacios donde se ejercite el pensamiento, al decir de J. Novak, donde continuamente se practique “el deporte de pensar”.

www.monografias.com/trabajos40/educacion-era-tecnogerencial/educacion-era-tecnogerencial.shtml

Web 2.0, copyleft y contenidos abiertos. Creative Commons



El artículo empieza diciendo "Copyleft o copia permitida (=left(de leave) =granted)", mientras que en el sitio de la gnu "What is Copyleft?" (http://www.gnu.org/copyleft/) se especifica literalmente "The word “left” in “copyleft” is not a reference to the verb “to leave” — only to the direction which is the inverse of “right”". Propongo por tanto que se elimine esta explicación y se sustituya por una correcta:

"Copyleft es un método general para liberar un programa u otro trabajo, requiriendo que todas las versiones modificadas o extendidas del mismo sean igualmente libres. A este fín, al programa o trabajo se le aplica un copyright, al que a continuación se le añaden términos de distribución que dan a todo el mundo el derecho a usar, modificar y redistribuir cualquier programa o trabajo derivado del original pero sólo si los términos de distribución permanecen inalterados. Por tanto, el Copyleft es una forma de usar el Copyright de un programa para invertir los objetivos habituales del Copyright (limitar la libertad del usuario) y convertirlo en una herramienta para preservar legalmente la libertad de creación y distribución. Este proceso de "inversión" de objetivos es el origen del nombre "Copyleft" por oposicion a "Copyright"."

Copyleft o copia permitida (=left(de leave) =granted)[1] comprende a un grupo de derechos de autor caracterizados por eliminar las restricciones de distribución o modificación impuestas por el copyright, con la condición de que el trabajo derivado se mantenga con el mismo régimen de derechos de autor que el original.

Bajo tales licencias pueden protegerse una gran diversidad de obras, tales como programas informáticos, arte, cultura y ciencia, es decir prácticamente casi cualquier tipo de producción creativa.

Sus partidarios la proponen como alternativa a las restricciones que imponen las normas planteadas en los derechos de autor, a la hora de hacer, modificar y distribuir copias de una obra determinada. Se pretende garantizar así una mayor libertad para que cada receptor de una copia, o una versión derivada de un trabajo, pueda, a su vez, usar, modificar y redistribuir tanto el propio trabajo como las versiones derivadas del mismo. Así, y en un entorno no legal, puede considerarse como opuesto al copyright o derechos de autor tradicionales.

Las ideas del copyleft están siendo también sugeridas cada vez más para su aplicación en patentes (y por tanto, dependiendo de un marco legal de patentes en lugar de un marco legal de derechos de autor). Ejemplos de estas iniciativas son los fondos de patentes abiertas que permiten el uso libre de royalties de patentes contribuidas al fondo bajo ciertas condiciones (como renunciar al derecho de solicitar nuevas patentes que no han sido contribuidas a dicho fondo). Sin embargo, esta iniciativa parece no haber despegado, tal vez porque las patentes son relativamente caras de obtener, mientras que los derechos de autor se obtienen de manera gratuita.

No obstante, puesto que la mayoría de creaciones con copyleft adquieren la característica de copyleft exclusivamente de las leyes del copyright, los mecanismos de patentes pueden amenazar las libertades que otorga el copyleft a dichas creaciones cuando se permite a las leyes de patentes anular a las de copyright, que podría ser el caso de las nuevas reglas referentes a patentes desarrolladas por la Unión Europea a principios del siglo XXI. No parece haber una respuesta fácil a tales amenazas, aunque generalmente se considera que las comunidades que desarrollan productos con copyleft no tienen ni los recursos ni la organización necesaria para los complejos trámites de patentes.



Creo que el artículo en algún punto es un poco pro-copyleft:"En el dominio público, la ausencia de una protección como la que ofrece el copyleft deja al software en un estado desprotegido."

No estoy muy de acuerdo con lo que pone, porque no estaría tan desprotegido, ya que nadie se puede apropiar de nada de dominio público, lo que más podría ocurrir, es que alguien use ese código para hacer software propietario, pero esto nunca hará desaparecer al software original que no es copyleft.

Otro detalle, es que esta licencia también proporciona libertad a largo plazo, ya que el que un programa no sea copyleft no significa que desaparezca por completo si alguien usa el código para hacer software propietario, es más, siempre se podrá seguir el desarrollo lo copien o no como si fuera copyleft.

Vamos, que yo no veo nada de malo en usar licencias no copyleft cuando se hace software libre, es como todo, una decisión del programador, si quiere permitir el uso de su código en software propietario, yo en mi caso, hice un programilla y lo puse libre total, y si me copia alguien, pues a mi plin, seguiría haciendo mi programa y ya está.

Lo que yo cambiaría del artículo, es donde pone "estado desprotegido" por "disponible para usar en software propietario" (o algo similar), e indicar que algunas personas no desean que esto ocurra, vamos, mi idea es no dar un enfoque negativo o de "desprotegido" cuando no se usa el copyleft. --Magnus Colossus 19:12 27 may 2006 (CEST)

http://es.wikipedia.org/wiki/Discusi%C3%B3n:Copyleft

El copyright en la práctica cotidiana. Autenticidad

En este artículo tratamos de poner en relación los vículos que unen la música popular contemporánea con las nuevas tecnologías, así como las viersas lecturas, a menudo contradictorias, que se han realizado de dicha relación. Easta vinculación entre música popular y tecnología ha existido siempre, ello no ha impedido que se difundira la idea que las nuevas tecnologías constituyen una fuerte amenaza contra la verdadera autenticidad de la música.

El vínculo entre música y tecnología

Una de las preocupaciones centrales de la reflexión académica acerca de la música popular contemporánea ha sido la de abordar el papel que han ocupado las nuevas tecnologías en los cambios dicursivos que se han ido produciendo en aquel terreno, tanto por lo relacionado con la producción y la difusión, como por lo que afecta a la recepción. Así lo apunta, entre muchos otros autores, Paul Thérberge en la introducción de ¨Technology´en el reciente Key Terms in Popular Music and Clture publicado por la editorial Blackwell. La principal razón de esta preocupación procede de la constatación de que las relaciones entre la música y sus productores y receptores han sido modificadas a lo largo de estos últimos años de una manera evidente, desde la aparición de la electrónica, a una velocidad cada vez más vertiginosa. Se trata de cambios que han modificado las condiciones de circulación y de recepción de todo tipo de música. Si de manera más especifica hablamos además de la música popular contemporánea y si tenemos en cuenta que la teoría y la práctica musical se encuentran en impacto es aún más importante, ya que se trata de un ámbito musical en el que se advierte una dependencia casi total y mediatizada a partes iguales por lo tecnológico y lo económico.

Con todo, sin embargo, este vínculo básico entre música y tecnología no ha impedido que el propio concepto de tecnología quedara afectado por todos aquellos prejuicio que ven en lo tecnológico una especie de fuerza que a la larga conduce a una amenaza constante de la autenticidad de las formas musicales. Por lo que respecta a la música popular contemporánea, la amenaza que representa la tecnología pone en juego el debate entorno a la autenticidad o la verdad de la música. Ello implica en cierta medida que la tecnología termine siendo acusada de falsa, adulterante, contaminante y perturbadora. Resulta cuanto menos sorprendente en el caso que tratamos si se considera que a lo largo de su historia las invenciones de la industria de la música de mayor aceptación y aparición más exitosa en el mercado son aquéllas que conducen, al menos a corto plazo, dado que repercuten tanto en la producción como en la recepción, en la descentralización de la composición, la interpretación y la escucha de la música. Este hecho lo ha estudiado de manera ejemplar Simon Frith en el artículo ¨El arte frente a la tecnología: el extraño caso de la música popular¨ del a´no 1986 donde argumenta que la tecnología, en tanto que posibilidad alternativa a la reproducción mecánica, indudablemente ha sido condición necesaria para la expansión del negocio del ocio a manos de las multinacionales y para alcanzar técnicas más sofisticadas de manipulación ideo lógica, pero también ha hecho pensables nuevas posibilidades de democracia cultural así como nuevas formas de expresión individuales y colectivas. La cinta magnetofónica es un ejemplo histórico de estas posibilidades emancipadoras de las nuevas tecnologías, como actualmente lo es el libre intercambio de música de ordenador a ordenador a través de Internet que ha utilizado la empresa Napster.

De cómo la nuevas tecnologías hacen que la música popular tenga otras propiedades especificas

Ciertamente las consecuencias de este cambio son, aún hoy, imprevisibles. Es necesario tener presente, como señala Iain Chambers en el artículo A Miniature History of the Walkman, que todo cambio en el contexto donde se recibe la música no sólo tiene variaciones de tipo discursivo, textual, que afecten a la condición de ser de la música, sino que termina transformándose en un cambio de tipo político, ya que opera inevitablemente en un cambio del horizonte perceptivo, haciendo posible una fragmentación de la percepción del mundo como efecto de la creciente acumulación de signos entrecruzados, sonidos e imágenes de los medios. Chambers lo ejemplifica con lo que sucede en el caso de la escucha a través de un dispositivo tan cotidiano como lo es el walkman al propiciar una percepción diferente del espacio y del tiempo, participa en la reescritura de las condiciones de representación. Representación señala claramente tanto las dimensiones semióticas de lo cotidiano como la participación potencial en una comunidad política (Chambers, 1990).

Parece obvio que Chambers privilegia un uso particular del walkman, pero lo que me interesa resaltar en esta argumentación es cómo un determinado uso de una tecnología que aparentemente sólo sirve para recibir, de manera pasiva, unas determinadas músicas, escogidas o no previamente, puede llegar a afectar. Una tecnología aparentemente neutra, por tanto, puede servir tanto de crítica como de soporte y de participación en un sistema cultural y político determinado. Podríamos aplicar todas estas aportaciones a aquellas cuestiones que afectan a determinados usos de la red, relacionados o no con la música.

Las nuevas tecnologías y los nuevos medios de circulación de la música han contribuido a la modificación de la música tradicional y en la creación de un nuevo tipo de música, pero a su vez, y de forma más importante, es necesario tener en cuenta que no se trata de simples instrumentos técnicos, sino de dispositivos que posibilitan nuevas actividades culturales. Los nuevos medios tecnológicos (de la cinta magnética a la tecnología de compresión de los archivos sonoros del MP3, del sampler a la mesa de mezclas de un DJ) son a un tiempo instrumentos y actividad que contribuyen a acuñar sentido, a representar y reacentuar el mundo contemporánes.

Entre la autenticidad y la impostura: música popular y nuevas tecnologías

Es éste un tipo de música que siempre ha sido sintético en cierta medida, ya que se trata de un música cuya principal caraterística es el uso que ha hecho de las tecnologías tanto digital como analógica, con la pretensión de controlar el espacio, el tiempo y la forma de las actuaciones en directo. Aquellos que han utilizado de forma más aventurada estos instrumentos de manipulación con el objetivo de transformar eventos en directo en eventos ideales han sido criticados como no auténticos, con el argumento de que este exceso de tecnología puede alterar el sistema de signos que determina el significado o el valor de un músico y de su producto, una alteración de las reglas del juego que en la práctica imposibilita discernir claramente el significado original o auténtico de un determinado producto musical. En el fondo, lo que permiten las nuevas tecnologías es dar vida a productos que superan los límites de artificialidad que eran admisibles en un momento histórico determinado, mientras que su aculturación permite la articulación de nuevas autenticidades (las tecnológicas de estudio en obras de los Beatles o el uso de la guitarra eléctrica por parte de Dylan). Así, la dialéctica orgánico-sintético (o auténtico-artificial) se reproduce de forma sistemática a lo largo de la historia de la música popular contemporánea, a niveles siempre nuevos, con la llegada de nuevos desarrollos tecnológicos. Tanto es así que muchos grupos que en su día fueron los abanderados de la llamada música techno-pop, como por ejemplo The Human League, decidieron escribir en la portada de sus últimos discos la siguiente inscripción: No Sequencers! , eslogan parecido, si no paralelo de aquél que The Queen colocaron en la portada de un disco en plena década de los ochenta: No Synthesizers!

Tampoco es ninguna casualidad que ahora los teclados electrónicos sean fabricados con botones sensibles con la función de inscribir errores programados en lo que, contrariamente, sería una reproducción demasiado perfecta de un sonido, una simulación demasiado perfecta de la realidad (cosa que me recuerda el famoso eslogan publicitario de la Tyrell Corporation de la película Blade Runner (1982) de Ridley Scott, empresa dedicada a la construcción de humanoides perfectos: "Más humanos que los humanos").

El desarrollo de nuevas formas de tecnología ha acelerado este proceso hasta llegar al punto en que la música rock se ha visto desmantelada y reorganizada físicamente en forma de pastiche o de collage de manera más rápida y menos controlada que ningún otro momento histórico. El culto al sampling, el uso de una tecnología para apropiarse y manipular grabaciones y trabajos de otros músicos puede ser el ejemplo más claro de esta presencia del fragmento, del corte, de la circulación incontrolada de sonidos abiertos a diversos usos (Goodwin, 1988). Son muchos los teóricos que ven positiva la naturaleza no oficial de esta tecnología que puede ser utilizada para descentralizar y redistribuir el poder oficial. Para ponerle ruedas, en definitiva. Cabe destacar entre ellos a Simon Frith, ya que el sociólogo escocés consideraba que era necesario incluir especialmente en esta carta de naturaleza tecnológica no oficial a la cinta magnetofónica. Escribió Frith en el año 1987: "Las ganancias de las multinacionales, mientras tanto, han sido defendidas de la nueva tecnología con los argumentos de una amenaza de la creatividad individual. La grabación en casa, el scratch mixing, y las diversas formas de pirateo han roto la ecuación de los artistas poseedores de su trabajo creativo, y las compañías discográficas poseedoras de las mercancías resultantes de ese trabajo son las que han estado verdaderamente defendidas en detrimento de aquellas actividades. El copyright se ha convertido en el arma legal ideológica con la que atacar a la copia ilegal y la batalla se ha librado en nombre de la justicia por el artista" (Frith, 1987). Este debate, si se fijan, se está repitiendo con todas aquellas discusiones surgidas al entorno del fenómeno Napster.

Si bien es cierto que fue gracias al soporte material y técnico de los tocadiscos, los juke boxes, de las radios y de los transistores, de los aparatos estéreo portátiles, de los walkmans y de las mesas de mezclas que Apache pudo alcanzar esta presencia flexible y polifónica a lo largo de los tiempos y del espacio, y que todo este trayecto nunca pudo ser proyectado, ni tan sólo previsto, ni casi imaginado por la industria discográfica, tampoco debemos pensar que todo ello sea posible únicamente gracias al actual desarrollo tecnológico. Es más bien gracias a los avances tecnológicos que se nos muestra con una mayor evidencia que cualquier sentido de un texto sonoro va mucho más allá de sus propios límites y que subsiste, a pesar del paso del tiempo, gracias al vínculo con otros textos, y que se enriquece continuamente tras nuevas e impensadas relaciones intertextuales. De la misma forma, el ejemplo indio nos sugiere algo más que aquellos diagnósticos que hablan de un proceso imperialista americano de circulación de los sonidos en nuestro mundo globalizado. Es posible que la industria musical de los Estados Unidos haya difundido globalmente los discos de Miami Sound Machine, pero difícilmente puede haber determinado el uso particular e idiosincrásico de estos sonidos en el contexto específico de la música popular india.

http://www.uoc.edu/web/esp/art/uoc/0103004/adell.html

lunes, 12 de enero de 2009

Soft libre como alternativa al copyright. Free Software as a Social Movement

El software libre nació de la mano del propio software en las décadas de los años 60 y 70. En aquella época las gigantescas máquinas que conocemos como mainframes utilizaban programas cuyo código fuente estaba disponible para todos aquellos que pudieran estar interesados y se permitía su libre distribución. Bajo esas condiciones, era común que los programadores y desarrolladores de software compartieran libremente sus códigos, informes y errores en base a una cultura cooperativa. El software por aquel entonces no era considerado como un producto en si, sino como un valor añadido que los fabricantes de estas supercomputadoras de la época aportaban gratuitamente a sus clientes. Sin embargo, a finales de los 70 el software empezó a configurarse como un negocio rentable y las grandes compañías comenzaron a imponer restricciones al acceso al código fuente y a su distribución con el uso de acuerdos de licencia. Ante esta situación, surgieron numerosas voces contrarias a estas medidas y en favor de la libertad de acceso y distribución que
antes existían. Esta reacción supuso el nacimiento del movimiento de Software Libre. Sin embargo,no fue hasta mediados los 80 cuando Richard Stallman, ingeniero del MIT, formalizó las ideas básicas del movimiento del Software Libre. El software libre, tal y como lo conocemos hoy, dio sus primeros pasos gracias a Stallman con su manifiesto en favor de la libertad de expresión y la creación, por parte de él mismo, de un proyecto que hoy en día es conocido mundialmente, el proyecto GNU para el desarrollo y difusión del Software Libre.

Un término importante relacionado con el Software Libre es el Copyleft (inventado por
Stallman también). Es una protección parecida al comúnmente conocido Copyright, pero en este caso, el software protegido con Copyleft es Software Libre cuyos términos de distribución no permiten a los redistribuidores agregar ninguna restricción adicional cuando éstos redistribuyen o modifican el software. Esto significa que cada copia del software, aun si ha sido modificado, debe ser Software Libre. Es decir, el Copyleft es una medida para proteger de modo legal estas libertades
inherentes del Software Libre, ya que se podría dar el caso de que un programa de Software Libre sin Copyleft sufra por parte de una empresa o particular ligeras modificaciones y distribuir el resultado como un producto privativo (con Copyright) anulando las libertades que el autor original le otorgo al programa.

En los últimos años, el Software libre ha adquirido un protagonismo bastante alto, llevando no sólo a usuarios particulares, sino también a empresas, entes locales e incluso administraciones centrales (como es el caso, entre otros, de Brasil) a plantearse la migración de sus equipos informáticos a sistemas de Software Libre. Como es lógico detrás de esta circunstancia deben existir ciertas ventajas del Software Libre sobre el que no lo es. Entre las principales ventajas del Software Libre encontramos:

􀂃 El Software Libre se obtiene generalmente gratis o a muy bajo precio.
La disponibilidad del código fuente y el derecho a utilizarlo hacen más fácil el
mantenimiento, la adaptación a las necesidades de cada usuario y la corrección de errores. Asimismo, la posibilidad de acceder al código fuente incrementa la seguridad del software ya que permite la identificación y eliminación de códigos malignos insertos en él.

􀂃 En el modelo del Software Libre se prima el hecho de compartir información y el trabajo cooperativo, siendo una situación similar a la existente en el mundo académico y científico, y que actúa como potenciador y agilizador de la innovación tecnológica.

􀂃 Las lenguas minoritarias que tienen pocas posibilidades de contar con una versión propia dentro del software de propietario (con Copyright), tienen una gran oportunidad en el Software Libre donde cualquier interesado puede realizar la traducción sin tener que pedir ningún permiso.

􀂃 Ya existen grandes empresas del peso de IBM, Compaq o Dell que proporcionan servicios de soporte técnico profesional a particulares, empresas o instituciones que usan Software Libre.

A pesar de que este SO es el programa de Software Libre más conocido, hoy pueden encontrarse en este formato numerosas aplicaciones: sistemas operativos para servidores y estaciones de trabajo; servidores de archivos, comunicaciones, web, correo electrónico, impresoras, seguridad; lenguajes de programación, diseño y desarrollo y aplicaciones de todo tipo. Hay productos que han alcanzado mejor calidad y mayor distribución que sus competidores con Copyright. Como hemos comentado anteriormente, ya existen grandes empresas productoras de software que desarrollan productos para ser distribuidos como Software Libre.

www.n-economia.com/notas_alerta/pdf/ALERTA_NE_15-2005.PDF

Qué pasa con los sistemas P2P.

¿Qué pasa con las redes p2p?: Legales o Ilegales
P2p, “peer to peer”, punto a punto, conexiones casi directas entre miles de usuarios que comparten ficheros.

Esta tecnología ya va por su tercera generación. La primera liderada por Napster, la segunda por KaaZa, y la tercera con una mula acelerada de por medio.

Y su difusión parece imparable, a medida que las comunicaciones se hacen más rápidas (y no más baratas, al menos en España) cada vez es mayor la cantidad de programas y archivos multimedia que podemos descargar de estas redes. ¿Ilegal?

Internet ha permitido sacarle punta a las leyes, difuminar los límites de lo legal, llevar al extremo cada artículo de cada libro de derecho existente. Sobre todo en lo referente a la libertad. El eterno conflicto que muchos resumen en una simple frase que en realidad nada resuelve: “tu libertad termina donde comienza la de los demás” y que yo encogería aún más hasta simplificarla con la escueta palabra “respeto”.

Una red p2p comprende varios elementos básicos. Uno es una red, compuesta por servidores, que comunican a los usuarios entre sí. Otra son los programas cliente que usamos para conectarnos a estas redes. Por supuesto, también los propios usuarios que utilizan este software, y, por último, los propios programas y ficheros que se comparten. ¿Cuál de estos elementos es ilegal? ¿Todos? ¿Algunos? ¿O la interacción de unos con otros? Los servidores conectan sistemas, son redes con información, y esto no lo diferencia mucho de un servidor web o cualquier otro ordenador de Internet. Además, cada servidor se encuentra en un punto geográfico distinto, con sus propias leyes y fórmulas, por lo que no se puede aplicar un mismo método para todos. Los programas cliente son software legal, que se ofrece gratuitamente para ser descargado desde muchos puntos de Internet. Esto es perfectamente legal. Los usuarios… ¿desde cuándo una persona es ilegal? En todo caso, sería necesario estudiar sus intenciones. Y los programas y archivos que se comparten… La información no es ilegal mientras no la ampare un derecho de copyright. Ahí entramos en el meollo de la cuestión. La mayoría de los archivos, películas, programas y música que nutren esta red están protegidos y esto es ilegal. No se puede adquirir gratuitamente una canción protegida, eso está bastante claro.

Pero… un momento. La ley ampara el derecho de la copia privada de seguridad. Cuando compramos un cedé de música, podemos hacer una copia para escucharla en el coche mientras mantenemos el original en casa, así que nada nos impide usar Internet para descargar una copia de un cedé que he adquirido legalmente, si no tengo o no sé usar la grabadora. De hecho, la mayoría de las páginas que ofrecen enlaces directos a descargas de la red de eMule (tipo spanishare.com) advierten de este derecho en su página de presentación para cubrirse las espaldas. La cosa se complica. Está claro que las personas con malas intenciones pueden no comprar el cedé, y descargarlo de Internet directamente. Así que estos usuarios estarían cometiendo un acto ilegal. Pero, la realidad es que no se lucran de estas descargas, no venden a terceros las películas o discos que descargan, así que volvemos al derecho de libre intercambio de información. Se debería luchar contra las redes que usan Internet para nutrir al “top manta” de discos y películas baratas de baja calidad, no contra el usuario que no se puede permitir pagar una entrada al cine para disfrutar de una buena película que, probablemente, ni siquiera se mantenga más de un fin de semana en cartel.

¿Cómo evitar esto entonces? En España, el despacho de abogados Landwell-PriceWaterhouseCoopers (PwC), anunció una denuncia presentada ante la Brigada de Investigación Tecnológica (BIT) del Cuerpo Nacional de Policía que tenía por objeto 95.000 usuarios de p2p, de los que se elegirían los 4.000 que se hubiesen descargado más archivos. Consistía en una demanda común de 32 compañías del sector (que permanecieron en secreto) contra “quienes reproduzcan y distribuyan ilegalmente software profesional”. La demanda no iba dirigida contra las descargas de música, sino contra el tráfico de software español protegido. La organización española de la BSA, organismo internacional dedicado a la persecución del software pirata, se desmarcó de esta iniciativa alegando una diferencia de filosofía sobre los métodos de persecución del pirateo, y dejó a PwC sólo ante sus ideas.

Para defenderse de la violación del derecho a la privacidad de las comunicaciones que ampara la Constitución y que la investigación de la demanda de PwC conllevaba, la Asociación de Internatuas puso a disposición de todos un programa denominado PeerGuardian que impide “el espionaje” al bloquear las direcciones IP solicitadas. Este programa de libre distribución y uso, puede descargarse desde la página web de su creador Methlab Productions. Impide las conexiones a nuestro cliente eMule de ciertos rangos de direcciones, pertenecientes, supuestamente, a los que pretenden espiar las comunicaciones. Los rangos son actualizables y se dan a conocer en foros y webs públicas.

La Asociación de la Industria Fonográfica de Estados Unidos (RIAA, por sus siglas en inglés) también presentó por su parte 41 demandas contra personas que intercambian música por Internet ante tribunales federales por todo el país. Un portavoz sostuvo que la entidad tiene previsto advertir a otras 90 personas de que podrían ser demandadas en el futuro inmediato. Bajo las leyes de derecho de autor, cada acusado puede ser obligado a pagar compensaciones a las grandes discográficas de hasta 150.000 dólares por canción. La RIAA se ha ganado la impopularidad y, por qué no decirlo, el odio de millones de internautas norteamericanos, que han visto vengado “su honor” con la desfiguración de su página web en más de cuatro ocasiones, incluyendo mensajes alusivos a la libre información e intercambio de ficheros que hackers incrustaron en la propia portada de la asociación.

¿Hemos llegado a alguna conclusión? Me temo que no. Los usuarios expresan libremente su deseo de intercambiar información de forma libre y privada, y los que creen perder dinero, apuntan hacia donde no es, intentando investigar a los usuarios, en vez de a las mafias que se lucran de estas tecnologías. La industria audio-visual debe adaptarse a los nuevos tiempos, en vez de luchar contra una marea que tarde o temprano, acabará arrastrándole. La distribución de música explora ahora nuevos sistemas mucho más efectivos y baratos, y parecen no entender que 15 Euros por un cedé sigue siendo excesivo. Existen programas de descarga legal de música que ofrecen una calidad sin igual por mucho menos que el álbum físico, y han tenido éxito. ¿Por qué no se riden a la evidencia? Renovarse o morir.

http://mundoinformatica.portalmundos.com/%C2%BFque-pasa-con-las-redes-p2p-legales-o-ilegales/

Copyright, música e Internet. Con la música a otra parte



Eso es principalmente lo que nos propone una de las novedades incluidas en la nueva versión de WinAMP, el clásico reproductor multimedia que ya lleva 10 años entre nosotros.

En su últiima actualización sorprende una opción aún en fase beta en la que se nos propone probar una nueva e innovadora funcionalidad: WinAMP Remote, una utilidad que, desarrollada junto a AOL y ORB, nos va a poner en bandeja disfrutar de nuestra música allá donde vallamos e incluso compartirla con nuestros amigos.

Sacarle el máximo partido a esta utilidad es extremadamente fácil: Instalamos WinAMP Remote en nuestro ordenador de casa y podremos añadir a él nustra librería multimedia tras un pequeño y sencillo registro que no nos llevará más de un minuto. Tras ello, y con nuestro nombre de usuario y contraseña, podremos acceder a nuestra librería multimedia desde cualquier punto del planeta, siempre y cuando dispongamos de una conexión a internet, no será necesario tan siquiera el reproductor WinAMP para ello, simplemente tendremos que acceder a la direccion de WinAMP Remote: http://corp.orb.com/winamp/index.html , aunque si en tro ordenador tenemos instalado WinAMP simplemente tendremos que acceder a la opción indicada.

Eso sí, el ordenador “fuente” debe estar conectado a internet para poder acceder a la música, vídeo, fotos e incluso documentos. De este modo convertiremos a nuestro ordenador de casa en nuestra fuente musical para nosotros y nuestros amigos.

Así, sacaremos partido a la conexión a internet de, por ejemplo, las consolas de nueva generación, los moviles e incluso al ordenador de la oficina, desde el que podremos escuchar la música de nuestra casa sin necesidad de nuestro querido iPod, Walkman o cualquier otro dispositivo.

Si queremos compartir nuestra música y vídeos con nuestros amigos, solo tendremos que añadirlos a nuestra lista de amigos de WinAMP Remote y podrán acceder a nuestra librería, eso sí, aún no hemos visto la manera de descargar ese contenido (pero tiempo al tiempo, que seguro que hay quien está viendo una puerta abierta).

Me gusta las canciones de Monica Naranjo mucho. Ella canta muy bien y desde sus canciones podemos a ver las cosas en lo hondo de su alma.....Reconoce mucho el favor del forma del internet, ahora podemos escuchar el voz maravilloso en el mundo del Monica Naranjo...

http://www.uptodown.com/blog/winamp-remote-con-la-musica-a-otra-parte/

A favor del copyright. 10 Big Myths about copyright explained.

El artículo de Brad Templeton habla sobre los diez grandes mitos acerca del copyright. Analizamos el mito 11 donde se expresan cuáles son las finalidades del copyright. Los derechos de autor tienen dos objetivos fundamentales: el primero , la protección del derecho del autor a obtener beneficios comerciales de su trabajo; el segundo, la protección del autor del derecho general a controlar cómo su obra se utiliza.

El copyright, mal llamado derecho de autor, es el derecho de reproducción o copia de un texto, fonograma, imagen o programa de ordenador, y su resultado es un objeto (o texto, o fonograma, etc.) duplicado del original. Se pueden repetir hasta la saciedad las ideas de un libro, hablar o escribir sobre él, pero no se puede reproducir el libro en parte o en su integridad, a no ser que él y sus editores lo autoricen expresamente. Hasta ahora, el copyright había sido siempre una regulación mercantil; nunca planteado como un derecho o monopolio de los propietarios, sino una medida de difusión intelectual y de protección de la inversión de los editores frente a otros editores, no frente al público. El uso ultra restrictivo que actualmente se le quiere otorgar mediante ciertas leyes (DMCA, Directiva Europea de Copyright, etc.) es inédito.

Licencia que permite copiar, distribuir y comunicar públicamente una obra y hacer obras derivadas bajo las condiciones siguientes: 1) Reconocimiento. Debe reconocer y citar al autor original. 2) No comercial. No puede utilizar esta obra para fines comerciales. 3) Compartir bajo la misma licencia. Si altera o transforma esta obra, o genera una obra derivada, sólo puede distribuir la obra generada bajo una licencia idéntica a ésta. La Universidad de Barcelona ha liderado el proyecto de introducción de Creative Commons en el Estado Español adaptando sus licencias a la jurisdicción española, según la Ley de Propiedad Intelectual. Se puede consultar el código legal en esta web traducida al castellano.

Internet. Reflex nació como un centro de debate y reflexión sobre el discurso de los medios electrónicos a raíz de los siguientes hechos: "A finales de 1997, aparecieron una serie de envíos fraudulentos de e-mails que fueron distribuidos por las principales listas de correo. Contenían ensayos firmados por Mark Amerika, Peter Weibel, Josh Decter y Timothy Druckrey e incluían direcciones de correo "legítimas", dando a suponer que se habían enviado desde fuentes seguras. Los responsables fueron objeto de investigación y especulación. Es una estafa que por sus consecuencias -próximas al fraude ya la difamación- no puede ser ignorada por la comunidad crítica de la red". Benjamin Weil, director de ädaweb. El espacio contiene la respuesta del propio Timothy Druckrey en un artículo titulado "Cheap, Fast and Out of Control" .

Conferencia centrada en el software de código abierto, en la libre distribución y en los derechos sobre la propiedad intelectual en la red. Tuvo lugar del 4 al 6 de abril de 2001 en el Queen's College de Cambridge (GB). Temas: Copyright y Comunidad, Recuperar la colectividad, Intereses privados: Libertad y control, Distribuir el conocimiento: recompensa y responsabilidad, y un debate especial sobre El futuro del Conocimiento.

Forum destinado a la información sobre las propuestas que amplían el límite de protección de los derechos de autor y su posible contraofensiva. Este espacio pretende ser una fuente de información sobre el Copyright y la ampliación legislativa de sus límites, aprobada recientemente en los EEUU.

http://www.interzona.org/transmisor/PP/copy.htm