miércoles, 14 de enero de 2009

Ciudadanía audiovisual y digital



La brecha digital puede ser definida en términos de la desigualdad de posibilidades
que existen para acceder a la información, al conocimiento y la educación mediante las nuevas tecnologías. ¿Qué se puede hacer desde el mundo educativo para combatirla?. Algunas medidas que se pueden adoptar se situarían en torno a los siguientes aspectos: superar la mera concepción de implantación de infraestructuras, presencialidad, incorporar tecnologías apropiadas y flexibles, no sólo centrarnos en el hardware sino también en el software, formación del profesorado, potenciar la investigación, favorecer el acercamiento entre el mundo educativo y de la industria, y potenciar la participación de la sociedad civil.

“Educación e inclusión” (aumentar el número de profesores formados, mejorando su capacitación gracias a las TIC, a la formación a distancia (e-learning), y a redes de conocimiento que vinculen a unos profesores con otros, ampliar la disponibilidad
de materiales y recursos docentes de calidad mediante las TIC, impartir programas de educación y alfabetismo, especialmente aquéllos destinados a grupos con riesgo de exclusión, recurriendo para ello a las tecnologías idóneas, ejercer influencia en la opinión pública para promover la igualdad de sexos y la inclusión de colectivos desfavorecidos, basándose en programas de información y comunicación que utilicen las TIC, o mejorar la eficiencia de los ministerios de educación y organismos afines, promoviendo la aplicación estratégica de tecnologías posible las TIC.).

A la hora de explicar la brecha digital, nos encontramos con dos grandes tendencias, que podríamos considerar como dura y blanda. Dentro de la línea que podríamos denominar como blanda, se indica que el problema a resolver es simplemente de infraestructuras de tecnologías de telecomunicaciones e informáticas; en contrapartida existe otra visión más dura, y más realista, que considera que el problema es consecuencia de la desigualdad social y económica que se da en la sociedad capitalista, que lo mismo que separa a los países por la calidad de la
educación y servicios médicos, también se da por el grado de utilización que pueden hacer delas TICs.

Tales visiones como podemos imaginarnos, implican posiciones diferentes de abordarla
y solucionarla. En una, universalizando el acceso a Internet, se resolverá todo lo demás, y se disminuirá la distancia digital, la brecha, entre las personas y los países. Mientras que desde la otra perspectiva, al ser la brecha digital consecuencia de la desigualdad social, o se ataca ésta o todas las medidas que se adopten de extensión de las redes, seguirán beneficiando exclusivamente a un colectivo, e indirectamente seguirá ampliándose la misma brecha. En cierta medida podríamos decir que la brecha digital, es consecuencia directa de la brecha
socioeconómica existente entre los países, las regiones, las instituciones y las personas. El propio Bill Gates, en una reunión de expertos sobre la temática que nos ocupa, indicó con claridad que la población más pobre no necesita computadoras, sino una mejor atención sanitaria.

Se ha dicho diversas veces que el ciudadano del futuro tendrá que estar alfabetizado no sólo en el dominio lectoescritor, sino también para interaccionar y comunicarse con las nuevas tecnologías, pues serán las herramientas básicas de intercambio de información en el siglo XXI; es decir, en eso que se ha denominado como alfabetización digital.

Esta posición está siendo asumida con más fuerza que nunca, y se está dando un giro
radical a la incorporación de las TICs a los procesos de enseñanza-aprendizaje, de forma que se está pasando del concepto “aula de informática” a la “informática en el aula” y de “estar en al red” a “formar parte de la misma”. Adoptando al mismo tiempo medidas para favorecer la penetración de las TICs, no sólo en el territorio académico y educativo, sino también en el doméstico.

Uno puede navegar de forma maravillosa por internet, pegando saltos de una link a otra, y aparecer en no se sabe qué sitio, y desconocer al mismo tiempo los motivos que nos han llevado a ello. El realizar asociaciones cognitivas significativas entre los diferentes sitios, requiere un grado de madurez cognitiva y de preparación del usuario que no siempre se tiene.

Es importante siempre tener en cuenta que en Internet nos encontramos con bastante
información, cosa que es muy distinta al conocimiento, requiere una reelaboración y adaptación cognitiva por parte del usuario.

Pero esta brecha digital no es sólo de tipo de capacidad técnitécnica de acceso y de
formación, sino también, aunque está relacionada con la última, idiomática. La realidad es que el inglés es el idioma que domina la red, y como lengua del imperio los lugares más novedosos, más actualizados e interesantes desde un punto de vista científico se encuentran en ese idioma.

No podemos olvidarnos tampoco de la brecha digital generacional, que tiene un impacto
significativo en la educación como posteriormente veremos. Estoy de acuerdo con Negroponte (1995, 20) cuando señala: “Algunas personas se preocupan por la división social que existe entre los ricos y los pobres en información, entre los que tienen y los que no tienen, en el Primer y Tercer Mundo. Pero la verdadera división cultural va a ser generacional.”

En definitiva, los jóvenes son grandes consumidores de las tecnologías de la sociedad
del conocimiento, los multimedias y los telemáticos, mientras que los adultos, lo son más de tecnologías de la sociedad postindustrial, es decir de los audiovisuales e impresos. Y ello lo podemos perfectamente observar en la rapidez con que los jóvenes dominan con cierta rapidez las nuevas tecnologías, como descubren los lugares “ocultos” y “no ocultos” en Internet, o la facilidad con que utilizan las nuevas herramientas para comunicarse chat, foros, SMS,…

Para nosotros esta separación va a tener repercusiones tanto en las actitudes que tengan hacia las mismas, como en la seguridad con que se encuentren para utilizarlas. Y esta brecha digital generacional va a tener consecuencias directas en la educación, como a continuación vamos a indicar.

Se ha dicho de forma abundante que el problema para la utilización de las TICs en los
procesos de enseñanza-aprendizaje, no viene de los alumnos sino fundamentalmente de los profesores. Y por lo comentado, podemos observar que es cierto, ya que los alumnos suelen tener mayor dominio de las tecnologías de la comunicación de la cibersociedad que sus profesores. En contrapartida, el profesorado cada vez se siente más inseguro en el nuevo entramado tecnológico donde se encuentran, por diferentes motivos, que van desde su falta de dominio; la rapidez y velocidad con que estos se incorporan a la sociedad, de forma que nada más que aprender la última versión de un navegador, surgen otros, que requieren, breves, pero algunas adaptaciones; y lo que puede ser más importante para el profesor, el deseo de no
presentarse con una imagen de incompetentes delante de sus estudiantes. Muchas veces, la forma de evitar estas posiciones, es no utilizarlos, aunque después se aluda para ello a otro tipo de componentes y motivos: “la ciencia con sangre entra”, “los medios solamente sirven para distraer”, “lo he venido haciendo siempre así y los resultados para mí son satisfactorio”, “si no hay esfuerzo no hay rendimiento”,… Y esta no utilización, tendrá diferentes consecuencias negativas que irán, desde no aprovechar las posibilidades que estas tecnologías ofrecen,desestimar la habilidad cognitiva que presentan los estudiantes para interaccionar y decodificar
mensajes establecidos por estos medios, etc.

Si esta inseguridad es amplia en tecnologías que podríamos considerar como normalizadas en las que serían más específicas, o que necesitan adaptaciones en función de las características de los alumnos es mayor.

Creo que en los últimos tiempos se están produciendo movimientos
interesantes para introducir otras tecnologías en los centros, para que todo el profesorado se preocupe por su conocimiento y explotación, y para potenciar su estudio y reflexión. Y además fuera de hechos esporádicos, como son los “años especiales tematizados”. Ejemplos de lo que vengo a decir, es como en los últimos años en los planes de estudio de Pedagogía, Psicopedagogía o Magisterio, se han incorporado o asignaturas que analizan esta problemática de las TICs y la diversidad de los alumnos, o su problemática se ha incorporado dentro de los planes de estudio de las asignaturas de “Tecnología Educativa” o “Nuevas tecnologías aplicadas
a la educación”. Al mismo tiempo un grupo de compañeras se han especializado en el análisis de esta problemática: Alba, Negré, Prendes,…

Creo que es necesaria una colaboración más estrecha entre el mundo de la empresa y la
educación, para la creación, la implantación y la evaluación, de tecnologías que vamos a denominar aquí como especiales para los centros educativos. Ello pasa por salvar ciertos recelos que algunas veces ha existiendo en ciertas personas, por el acercamiento del mundo comercial y el educativo. Desde mi punto de vista, las experiencias y las adaptaciones que de determinadas tecnologías podemos hacer los que nos dedicamos a este mundo de la enseñanza son muy limitadas, sino contamos con el mundo de la empresa y la industria. Y también desde la industria se debe contar con la opinión y reflexión de los que constantemente trabajan con los sujetos objetos de estas tecnologías.

Por último, y no por ello menos importante, se debe crear una conciencia en la sociedad civil de lo significativo que es el romper las diferentes barreras que mantienen las diferentes brechas digitales. En otros contextos, los voluntarios desempeñan un papel importante en la sociedad, y creo que se deben potenciar los movimientos de los cibervoluntarios, como un elemento para impulsar la sociedad del conocimiento, y eliminar la brecha digital en determinados colectivos. Lógicamente estos cibervoluntarios pueden trabajar independientemente del espacio donde se encuentren los receptores de sus ayudas. Si las TICs cambiar los modelos sociales, también cambiarán los modelos de participación de los ciudadanos en la sociedad.

Las brechas digitales son motivos de exclusión de la sociedad del conocimiento, y de
configuración de una marginación social y personal, que estados democráticos de bienestar do deben, y no pueden asumir como irresoluble. Como siempre, es mejor prevenir que curar.

www.tecnoneet.org/docs/2004/jcabero04.pdf

martes, 13 de enero de 2009

El copyright en la práctica cotidiana. Moral del mínimo esfuerzo

Por aprender el tema, he leido el artículo del DR Pedro Rodríguez Rojas por investigar cómo las tecnologías venden que se tendrá éxito académico sin ningún esfuerzo.El nombre de su artículo es ¨La educación en la era tecnogerencial¨.
ERA GERENCIAL: ¿LAEDUCACION NO ES UN NEGOCIO?

La opinion de las bases de sustentación de esta teoría son los estudios realizados en la Escuela de la Investigación Acción, iniciada en los cuarenta por Kurt Lewin, un investigador de oficio y el empresario John Collier y que sería perfeccionada por los aportes de Argyris y Schon , quienes incursionaron en la microsociología a través del estudio de la vida cotidiana. Años después el propio Kurt Lewin fundador de la Escuela de Investigación Acción, realizo fuertes críticas a la tendencia de esta a satisfacer más la demanda de los clientes que a los propios fines del proceso investigativo y la desvinculación de estos estudios con el contexto donde se desarrollan y a las relaciones implícitas o explícitas con el poder. Uno de los principios de esta teoría es que no se puede construir conocimiento científico como si el objeto de estudio fuera una muestra, el investigador forma parte de la realidad a investigar y debe involucrarse en la realidad estudiada, no sólo para la contemplación o descripción fría sino para la acción, fundamentalmente para contribuir en la resolución de problemas.

Pretender estudiar organizaciones sin contextualizar, sin revisar el proceso histórico en el que está inmersa, sin cuestionar su posible generación como producto de imposiciones, actos de violencias enfrentados al proceder moral es convalidarla automáticamente. De esta manera se pudiera estar buscando calidad, eficiencia, productividad en organizaciones donde la mayoría de sus miembros pudieran estar ajenos al proceso total y al producto final de la organización, es decir alienada la percepción del trabajo como un proceso creativo natural del hombre y no solo una obligación para lograr el sustento., incapacitados muchas veces de obtener el producto de la organización en que se desempeñan. En el caso concreto de las instituciones educativas, como otras de carácter socio político y cultural, pudieran estar para contribuir a la reproducción de sociedades donde prima las injusticias y desigualdades y pudieran funcionar bien en sí mismas pero sin capacidad para cuestionar su propio sentido y trascendencia. Para Heidegger (citado por Álvarez):

“La ausencia de pensamiento es un huésped inquietante que se insinúa hoy en todo el mundo. Este huésped inquietante se reconoce no en la estupidez sino en su eficacia: preocupado por el cómo. Y no por el porqué, rebaja la inteligencia a la condición de instrumento, de simple agente de ejecución, y abandona la cuestión del sentido por la brusquedad exclusiva, desenfrenada, incesante de la performance o el rendimiento. Bajo su égida todo funciona, pero con un olvido cada vez mas denso de la destinación o finalidades de este funcionamiento generalizado” (p.105).
Sin la menor duda estas corrientes responden a teorías administrativas para el control de las conductas humanas, para la obtención de los mayores beneficios a quienes dirigen las organizaciones. Tal como lo afirma Mc Gregor, uno de los fundadores de la teoría del desarrollo organizacional: “una administración que tenga éxito depende, no del todo, pero si en grado considerable de la capacidad para predecir y controlar la conducta humana” (1994 P.4). Este autor aclara que la administración y la gerencia son un arte y no una ciencia que utiliza los conocimientos generados por otras ciencias, pero su fin es la actividad práctica y no la construcción teórica. Otro reconocido autor de esta teoría, Peter Senge, en su obra clásica La Quinta Disciplina, desarrolla sus cinco principios (destreza personal, modelos mentales, creación de una visión compartida, disciplina y pensamiento de sistema) insistiendo en la primacía del control y la disciplina Para los teóricos del desarrollo organizacional, toda organización tiene principios, valores , unos ”significados compartidos” que denominan cultura organizacional y cuya asimilación se realiza a través de los principios de la teoría del Aprendizaje Organizacional. Esta cultura es nuevamente percibida como neutra, aséptica, sin tomar en cuenta contextos y que ella reproduce formas sociales de dominación.

-¿DÓNDE ESTAN LA TEORÍAS EDUCATIVAS?

No tenemos la menor duda de que la propagación de este discurso gerencial en la educación, sin discusión y procesamiento tiene que ver con las propias debilidades del sistema educativo que señalamos al inicio y con la muy poca producción teórica y filosófica de la educación y que tradicionalmente lo que ha hecho es a apropiarse de las teorías que han surgido desde la sociología y fundamentalmente de la psicología.

Esto mismo ha sucedido con las Ciencias de la Educación, donde las diversas disciplinas que abordan lo educativo están enfrentadas (psicología, sociología, economía, antropología, lingüística, etnografía, entre otras) y que pretendiendo comprender a la educación, cada una desde sus parcelas, han perdido la unidad del proceso: su sentido. Según Ugas: “El discurso pedagógico no puede seguir siendo un amasijo de saberes artificialmente aglomerados en un corpus teórico llamado Ciencias de la Educación las cuales refieren a un todo sin especificidad...” (1997 p.60)
Además estas “Ciencias” cada una con su “arsenal teórico” y metodológico, estudian en la mayoría de los casos a la educación como un “objeto” de estudio aparte. La mayoría de lo que se conoce como investigación educativa comprende un análisis desde la perspectiva psicologista o sociológica sobre la educación y no en y dentro de la educación. Tal como lo afirma Padrón: “...esos movimientos epistemológicos e innovaciones teóricas han ocurrido desde afuera hacia adentro de la investigación educativa y jamás en sentido inverso” (1996 p.60)

Hasta los años cuarenta del este siglo XX aún no se hablaba de investigación educativa sino de psicopedagogía, y a pesar de los impactos del racionalismo deductivo poperiano, lo cierto es que la investigación educativa se ha quedado anclada al pragmatismo inicial.

Y, ya en la década de los 60, algunas ciencias sociales habían empezado su camino hacia la deducción teórica, de modo que para esa fecha, los únicos productos de corte positivista – mecanicista (al estilo de Viena) estaban en el área de la psicología, la sociología y la educación (...), no puede pasarse por alto el hecho de que la I. E. en conjunto, continúan siendo empírica e inductiva, tanto como podía serlo la más clásica investigación positivista del Círculo de Viena.(iden)
Si bien esto ha venido cambiando, hasta hace pocos años la mayoría de investigadores educativos no eran educadores, o ejerciendo la práctica educativa, no tenían “formación pedagógica”, no estaban formados (en el sentido de capacitados) para la enseñanza. El docente poco reflexiona sobre su trabajo y cuando lo hace parte de las teorías y metodologías de otras ciencias.

A Modo de Conclusión

No pretendemos como lo hemos señalado, desdeñar el discurso de las técnicas gerenciales, de lo que se trata es de no caer en las trampas ideológicas que estos discursos conllevan, y tener claro que el problema educativo no se resuelve sólo con técnicas o instrumentos, que la teoría administrativa así como el uso de las nuevas tecnologías pueden ser elementos e instrumentos válidos y provechosos siempre y cuando se tenga claro previamente un proyecto educativo sustentado filosófica y teóricamente y enmarcado dentro de un proyecto de país que nos permita formar a los hombres. En el discurso gerencial, igual que el discurso del uso de las nuevas tecnologías en su aplicación a la educación, pareciera ser que lo importante es cómo se administra la información y cuáles son las técnicas apropiadas para su apropiación por parte de los estudiantes, quedando sin resolver el qué se enseña y para qué se enseña.
El replanteamiento de una nueva pedagogía para América Latina es una prioridad, no sólo de los Estados Nacionales, sino de sus pobladores. La difícil situación económica y social de la región niega cualquier posibilidad de pensar en el fin de la escolaridad. Por el contrario de lo que se trata es de formular una nueva pedagogía que cumpla con algunos principios mínimos:
1.- Rescatar el saber pedagógico, entendido este como la unificación de “ciencias de la educación” y “saberes específicos” de la practica educativa.
2.- Replantearse una nueva epistemología educativa que parta de la reconstrucción histórica de nuestra propia historia educativa.
3.- Abordar teóricamente la educación pero con categorías y perspectivas epistemológicas propias.
4.- Enfrentar la pragmatización de la educación hoy en marcha con la revolución tecnogerencial.
5.- Defender y promover una conciencia colectiva crítica no dogmática que nos permita construir y fortalecer nuestra identidad frente a la globalización.
6.- Analizar el impacto y la racionalidad de las nuevas tecnologías y el discurso gerencial en la educación.
7.- Replantear el papel de las universidades como centros formadores de docentes.
8.- Valorizar la comunicación versus la información en el proceso educativo.
9.- La difícil tarea de evitar los complejos mesiánicos adjudicados a la educación.
Lo más importante de ésta, nuestra pedagogía, es romper con la amenaza de la generación de “los idiotas informados”, y seguir luchando por que nuestros centros de estudios sean antes que todo espacios donde se ejercite el pensamiento, al decir de J. Novak, donde continuamente se practique “el deporte de pensar”.

www.monografias.com/trabajos40/educacion-era-tecnogerencial/educacion-era-tecnogerencial.shtml

Web 2.0, copyleft y contenidos abiertos. Creative Commons



El artículo empieza diciendo "Copyleft o copia permitida (=left(de leave) =granted)", mientras que en el sitio de la gnu "What is Copyleft?" (http://www.gnu.org/copyleft/) se especifica literalmente "The word “left” in “copyleft” is not a reference to the verb “to leave” — only to the direction which is the inverse of “right”". Propongo por tanto que se elimine esta explicación y se sustituya por una correcta:

"Copyleft es un método general para liberar un programa u otro trabajo, requiriendo que todas las versiones modificadas o extendidas del mismo sean igualmente libres. A este fín, al programa o trabajo se le aplica un copyright, al que a continuación se le añaden términos de distribución que dan a todo el mundo el derecho a usar, modificar y redistribuir cualquier programa o trabajo derivado del original pero sólo si los términos de distribución permanecen inalterados. Por tanto, el Copyleft es una forma de usar el Copyright de un programa para invertir los objetivos habituales del Copyright (limitar la libertad del usuario) y convertirlo en una herramienta para preservar legalmente la libertad de creación y distribución. Este proceso de "inversión" de objetivos es el origen del nombre "Copyleft" por oposicion a "Copyright"."

Copyleft o copia permitida (=left(de leave) =granted)[1] comprende a un grupo de derechos de autor caracterizados por eliminar las restricciones de distribución o modificación impuestas por el copyright, con la condición de que el trabajo derivado se mantenga con el mismo régimen de derechos de autor que el original.

Bajo tales licencias pueden protegerse una gran diversidad de obras, tales como programas informáticos, arte, cultura y ciencia, es decir prácticamente casi cualquier tipo de producción creativa.

Sus partidarios la proponen como alternativa a las restricciones que imponen las normas planteadas en los derechos de autor, a la hora de hacer, modificar y distribuir copias de una obra determinada. Se pretende garantizar así una mayor libertad para que cada receptor de una copia, o una versión derivada de un trabajo, pueda, a su vez, usar, modificar y redistribuir tanto el propio trabajo como las versiones derivadas del mismo. Así, y en un entorno no legal, puede considerarse como opuesto al copyright o derechos de autor tradicionales.

Las ideas del copyleft están siendo también sugeridas cada vez más para su aplicación en patentes (y por tanto, dependiendo de un marco legal de patentes en lugar de un marco legal de derechos de autor). Ejemplos de estas iniciativas son los fondos de patentes abiertas que permiten el uso libre de royalties de patentes contribuidas al fondo bajo ciertas condiciones (como renunciar al derecho de solicitar nuevas patentes que no han sido contribuidas a dicho fondo). Sin embargo, esta iniciativa parece no haber despegado, tal vez porque las patentes son relativamente caras de obtener, mientras que los derechos de autor se obtienen de manera gratuita.

No obstante, puesto que la mayoría de creaciones con copyleft adquieren la característica de copyleft exclusivamente de las leyes del copyright, los mecanismos de patentes pueden amenazar las libertades que otorga el copyleft a dichas creaciones cuando se permite a las leyes de patentes anular a las de copyright, que podría ser el caso de las nuevas reglas referentes a patentes desarrolladas por la Unión Europea a principios del siglo XXI. No parece haber una respuesta fácil a tales amenazas, aunque generalmente se considera que las comunidades que desarrollan productos con copyleft no tienen ni los recursos ni la organización necesaria para los complejos trámites de patentes.



Creo que el artículo en algún punto es un poco pro-copyleft:"En el dominio público, la ausencia de una protección como la que ofrece el copyleft deja al software en un estado desprotegido."

No estoy muy de acuerdo con lo que pone, porque no estaría tan desprotegido, ya que nadie se puede apropiar de nada de dominio público, lo que más podría ocurrir, es que alguien use ese código para hacer software propietario, pero esto nunca hará desaparecer al software original que no es copyleft.

Otro detalle, es que esta licencia también proporciona libertad a largo plazo, ya que el que un programa no sea copyleft no significa que desaparezca por completo si alguien usa el código para hacer software propietario, es más, siempre se podrá seguir el desarrollo lo copien o no como si fuera copyleft.

Vamos, que yo no veo nada de malo en usar licencias no copyleft cuando se hace software libre, es como todo, una decisión del programador, si quiere permitir el uso de su código en software propietario, yo en mi caso, hice un programilla y lo puse libre total, y si me copia alguien, pues a mi plin, seguiría haciendo mi programa y ya está.

Lo que yo cambiaría del artículo, es donde pone "estado desprotegido" por "disponible para usar en software propietario" (o algo similar), e indicar que algunas personas no desean que esto ocurra, vamos, mi idea es no dar un enfoque negativo o de "desprotegido" cuando no se usa el copyleft. --Magnus Colossus 19:12 27 may 2006 (CEST)

http://es.wikipedia.org/wiki/Discusi%C3%B3n:Copyleft

El copyright en la práctica cotidiana. Autenticidad

En este artículo tratamos de poner en relación los vículos que unen la música popular contemporánea con las nuevas tecnologías, así como las viersas lecturas, a menudo contradictorias, que se han realizado de dicha relación. Easta vinculación entre música popular y tecnología ha existido siempre, ello no ha impedido que se difundira la idea que las nuevas tecnologías constituyen una fuerte amenaza contra la verdadera autenticidad de la música.

El vínculo entre música y tecnología

Una de las preocupaciones centrales de la reflexión académica acerca de la música popular contemporánea ha sido la de abordar el papel que han ocupado las nuevas tecnologías en los cambios dicursivos que se han ido produciendo en aquel terreno, tanto por lo relacionado con la producción y la difusión, como por lo que afecta a la recepción. Así lo apunta, entre muchos otros autores, Paul Thérberge en la introducción de ¨Technology´en el reciente Key Terms in Popular Music and Clture publicado por la editorial Blackwell. La principal razón de esta preocupación procede de la constatación de que las relaciones entre la música y sus productores y receptores han sido modificadas a lo largo de estos últimos años de una manera evidente, desde la aparición de la electrónica, a una velocidad cada vez más vertiginosa. Se trata de cambios que han modificado las condiciones de circulación y de recepción de todo tipo de música. Si de manera más especifica hablamos además de la música popular contemporánea y si tenemos en cuenta que la teoría y la práctica musical se encuentran en impacto es aún más importante, ya que se trata de un ámbito musical en el que se advierte una dependencia casi total y mediatizada a partes iguales por lo tecnológico y lo económico.

Con todo, sin embargo, este vínculo básico entre música y tecnología no ha impedido que el propio concepto de tecnología quedara afectado por todos aquellos prejuicio que ven en lo tecnológico una especie de fuerza que a la larga conduce a una amenaza constante de la autenticidad de las formas musicales. Por lo que respecta a la música popular contemporánea, la amenaza que representa la tecnología pone en juego el debate entorno a la autenticidad o la verdad de la música. Ello implica en cierta medida que la tecnología termine siendo acusada de falsa, adulterante, contaminante y perturbadora. Resulta cuanto menos sorprendente en el caso que tratamos si se considera que a lo largo de su historia las invenciones de la industria de la música de mayor aceptación y aparición más exitosa en el mercado son aquéllas que conducen, al menos a corto plazo, dado que repercuten tanto en la producción como en la recepción, en la descentralización de la composición, la interpretación y la escucha de la música. Este hecho lo ha estudiado de manera ejemplar Simon Frith en el artículo ¨El arte frente a la tecnología: el extraño caso de la música popular¨ del a´no 1986 donde argumenta que la tecnología, en tanto que posibilidad alternativa a la reproducción mecánica, indudablemente ha sido condición necesaria para la expansión del negocio del ocio a manos de las multinacionales y para alcanzar técnicas más sofisticadas de manipulación ideo lógica, pero también ha hecho pensables nuevas posibilidades de democracia cultural así como nuevas formas de expresión individuales y colectivas. La cinta magnetofónica es un ejemplo histórico de estas posibilidades emancipadoras de las nuevas tecnologías, como actualmente lo es el libre intercambio de música de ordenador a ordenador a través de Internet que ha utilizado la empresa Napster.

De cómo la nuevas tecnologías hacen que la música popular tenga otras propiedades especificas

Ciertamente las consecuencias de este cambio son, aún hoy, imprevisibles. Es necesario tener presente, como señala Iain Chambers en el artículo A Miniature History of the Walkman, que todo cambio en el contexto donde se recibe la música no sólo tiene variaciones de tipo discursivo, textual, que afecten a la condición de ser de la música, sino que termina transformándose en un cambio de tipo político, ya que opera inevitablemente en un cambio del horizonte perceptivo, haciendo posible una fragmentación de la percepción del mundo como efecto de la creciente acumulación de signos entrecruzados, sonidos e imágenes de los medios. Chambers lo ejemplifica con lo que sucede en el caso de la escucha a través de un dispositivo tan cotidiano como lo es el walkman al propiciar una percepción diferente del espacio y del tiempo, participa en la reescritura de las condiciones de representación. Representación señala claramente tanto las dimensiones semióticas de lo cotidiano como la participación potencial en una comunidad política (Chambers, 1990).

Parece obvio que Chambers privilegia un uso particular del walkman, pero lo que me interesa resaltar en esta argumentación es cómo un determinado uso de una tecnología que aparentemente sólo sirve para recibir, de manera pasiva, unas determinadas músicas, escogidas o no previamente, puede llegar a afectar. Una tecnología aparentemente neutra, por tanto, puede servir tanto de crítica como de soporte y de participación en un sistema cultural y político determinado. Podríamos aplicar todas estas aportaciones a aquellas cuestiones que afectan a determinados usos de la red, relacionados o no con la música.

Las nuevas tecnologías y los nuevos medios de circulación de la música han contribuido a la modificación de la música tradicional y en la creación de un nuevo tipo de música, pero a su vez, y de forma más importante, es necesario tener en cuenta que no se trata de simples instrumentos técnicos, sino de dispositivos que posibilitan nuevas actividades culturales. Los nuevos medios tecnológicos (de la cinta magnética a la tecnología de compresión de los archivos sonoros del MP3, del sampler a la mesa de mezclas de un DJ) son a un tiempo instrumentos y actividad que contribuyen a acuñar sentido, a representar y reacentuar el mundo contemporánes.

Entre la autenticidad y la impostura: música popular y nuevas tecnologías

Es éste un tipo de música que siempre ha sido sintético en cierta medida, ya que se trata de un música cuya principal caraterística es el uso que ha hecho de las tecnologías tanto digital como analógica, con la pretensión de controlar el espacio, el tiempo y la forma de las actuaciones en directo. Aquellos que han utilizado de forma más aventurada estos instrumentos de manipulación con el objetivo de transformar eventos en directo en eventos ideales han sido criticados como no auténticos, con el argumento de que este exceso de tecnología puede alterar el sistema de signos que determina el significado o el valor de un músico y de su producto, una alteración de las reglas del juego que en la práctica imposibilita discernir claramente el significado original o auténtico de un determinado producto musical. En el fondo, lo que permiten las nuevas tecnologías es dar vida a productos que superan los límites de artificialidad que eran admisibles en un momento histórico determinado, mientras que su aculturación permite la articulación de nuevas autenticidades (las tecnológicas de estudio en obras de los Beatles o el uso de la guitarra eléctrica por parte de Dylan). Así, la dialéctica orgánico-sintético (o auténtico-artificial) se reproduce de forma sistemática a lo largo de la historia de la música popular contemporánea, a niveles siempre nuevos, con la llegada de nuevos desarrollos tecnológicos. Tanto es así que muchos grupos que en su día fueron los abanderados de la llamada música techno-pop, como por ejemplo The Human League, decidieron escribir en la portada de sus últimos discos la siguiente inscripción: No Sequencers! , eslogan parecido, si no paralelo de aquél que The Queen colocaron en la portada de un disco en plena década de los ochenta: No Synthesizers!

Tampoco es ninguna casualidad que ahora los teclados electrónicos sean fabricados con botones sensibles con la función de inscribir errores programados en lo que, contrariamente, sería una reproducción demasiado perfecta de un sonido, una simulación demasiado perfecta de la realidad (cosa que me recuerda el famoso eslogan publicitario de la Tyrell Corporation de la película Blade Runner (1982) de Ridley Scott, empresa dedicada a la construcción de humanoides perfectos: "Más humanos que los humanos").

El desarrollo de nuevas formas de tecnología ha acelerado este proceso hasta llegar al punto en que la música rock se ha visto desmantelada y reorganizada físicamente en forma de pastiche o de collage de manera más rápida y menos controlada que ningún otro momento histórico. El culto al sampling, el uso de una tecnología para apropiarse y manipular grabaciones y trabajos de otros músicos puede ser el ejemplo más claro de esta presencia del fragmento, del corte, de la circulación incontrolada de sonidos abiertos a diversos usos (Goodwin, 1988). Son muchos los teóricos que ven positiva la naturaleza no oficial de esta tecnología que puede ser utilizada para descentralizar y redistribuir el poder oficial. Para ponerle ruedas, en definitiva. Cabe destacar entre ellos a Simon Frith, ya que el sociólogo escocés consideraba que era necesario incluir especialmente en esta carta de naturaleza tecnológica no oficial a la cinta magnetofónica. Escribió Frith en el año 1987: "Las ganancias de las multinacionales, mientras tanto, han sido defendidas de la nueva tecnología con los argumentos de una amenaza de la creatividad individual. La grabación en casa, el scratch mixing, y las diversas formas de pirateo han roto la ecuación de los artistas poseedores de su trabajo creativo, y las compañías discográficas poseedoras de las mercancías resultantes de ese trabajo son las que han estado verdaderamente defendidas en detrimento de aquellas actividades. El copyright se ha convertido en el arma legal ideológica con la que atacar a la copia ilegal y la batalla se ha librado en nombre de la justicia por el artista" (Frith, 1987). Este debate, si se fijan, se está repitiendo con todas aquellas discusiones surgidas al entorno del fenómeno Napster.

Si bien es cierto que fue gracias al soporte material y técnico de los tocadiscos, los juke boxes, de las radios y de los transistores, de los aparatos estéreo portátiles, de los walkmans y de las mesas de mezclas que Apache pudo alcanzar esta presencia flexible y polifónica a lo largo de los tiempos y del espacio, y que todo este trayecto nunca pudo ser proyectado, ni tan sólo previsto, ni casi imaginado por la industria discográfica, tampoco debemos pensar que todo ello sea posible únicamente gracias al actual desarrollo tecnológico. Es más bien gracias a los avances tecnológicos que se nos muestra con una mayor evidencia que cualquier sentido de un texto sonoro va mucho más allá de sus propios límites y que subsiste, a pesar del paso del tiempo, gracias al vínculo con otros textos, y que se enriquece continuamente tras nuevas e impensadas relaciones intertextuales. De la misma forma, el ejemplo indio nos sugiere algo más que aquellos diagnósticos que hablan de un proceso imperialista americano de circulación de los sonidos en nuestro mundo globalizado. Es posible que la industria musical de los Estados Unidos haya difundido globalmente los discos de Miami Sound Machine, pero difícilmente puede haber determinado el uso particular e idiosincrásico de estos sonidos en el contexto específico de la música popular india.

http://www.uoc.edu/web/esp/art/uoc/0103004/adell.html

lunes, 12 de enero de 2009

Soft libre como alternativa al copyright. Free Software as a Social Movement

El software libre nació de la mano del propio software en las décadas de los años 60 y 70. En aquella época las gigantescas máquinas que conocemos como mainframes utilizaban programas cuyo código fuente estaba disponible para todos aquellos que pudieran estar interesados y se permitía su libre distribución. Bajo esas condiciones, era común que los programadores y desarrolladores de software compartieran libremente sus códigos, informes y errores en base a una cultura cooperativa. El software por aquel entonces no era considerado como un producto en si, sino como un valor añadido que los fabricantes de estas supercomputadoras de la época aportaban gratuitamente a sus clientes. Sin embargo, a finales de los 70 el software empezó a configurarse como un negocio rentable y las grandes compañías comenzaron a imponer restricciones al acceso al código fuente y a su distribución con el uso de acuerdos de licencia. Ante esta situación, surgieron numerosas voces contrarias a estas medidas y en favor de la libertad de acceso y distribución que
antes existían. Esta reacción supuso el nacimiento del movimiento de Software Libre. Sin embargo,no fue hasta mediados los 80 cuando Richard Stallman, ingeniero del MIT, formalizó las ideas básicas del movimiento del Software Libre. El software libre, tal y como lo conocemos hoy, dio sus primeros pasos gracias a Stallman con su manifiesto en favor de la libertad de expresión y la creación, por parte de él mismo, de un proyecto que hoy en día es conocido mundialmente, el proyecto GNU para el desarrollo y difusión del Software Libre.

Un término importante relacionado con el Software Libre es el Copyleft (inventado por
Stallman también). Es una protección parecida al comúnmente conocido Copyright, pero en este caso, el software protegido con Copyleft es Software Libre cuyos términos de distribución no permiten a los redistribuidores agregar ninguna restricción adicional cuando éstos redistribuyen o modifican el software. Esto significa que cada copia del software, aun si ha sido modificado, debe ser Software Libre. Es decir, el Copyleft es una medida para proteger de modo legal estas libertades
inherentes del Software Libre, ya que se podría dar el caso de que un programa de Software Libre sin Copyleft sufra por parte de una empresa o particular ligeras modificaciones y distribuir el resultado como un producto privativo (con Copyright) anulando las libertades que el autor original le otorgo al programa.

En los últimos años, el Software libre ha adquirido un protagonismo bastante alto, llevando no sólo a usuarios particulares, sino también a empresas, entes locales e incluso administraciones centrales (como es el caso, entre otros, de Brasil) a plantearse la migración de sus equipos informáticos a sistemas de Software Libre. Como es lógico detrás de esta circunstancia deben existir ciertas ventajas del Software Libre sobre el que no lo es. Entre las principales ventajas del Software Libre encontramos:

􀂃 El Software Libre se obtiene generalmente gratis o a muy bajo precio.
La disponibilidad del código fuente y el derecho a utilizarlo hacen más fácil el
mantenimiento, la adaptación a las necesidades de cada usuario y la corrección de errores. Asimismo, la posibilidad de acceder al código fuente incrementa la seguridad del software ya que permite la identificación y eliminación de códigos malignos insertos en él.

􀂃 En el modelo del Software Libre se prima el hecho de compartir información y el trabajo cooperativo, siendo una situación similar a la existente en el mundo académico y científico, y que actúa como potenciador y agilizador de la innovación tecnológica.

􀂃 Las lenguas minoritarias que tienen pocas posibilidades de contar con una versión propia dentro del software de propietario (con Copyright), tienen una gran oportunidad en el Software Libre donde cualquier interesado puede realizar la traducción sin tener que pedir ningún permiso.

􀂃 Ya existen grandes empresas del peso de IBM, Compaq o Dell que proporcionan servicios de soporte técnico profesional a particulares, empresas o instituciones que usan Software Libre.

A pesar de que este SO es el programa de Software Libre más conocido, hoy pueden encontrarse en este formato numerosas aplicaciones: sistemas operativos para servidores y estaciones de trabajo; servidores de archivos, comunicaciones, web, correo electrónico, impresoras, seguridad; lenguajes de programación, diseño y desarrollo y aplicaciones de todo tipo. Hay productos que han alcanzado mejor calidad y mayor distribución que sus competidores con Copyright. Como hemos comentado anteriormente, ya existen grandes empresas productoras de software que desarrollan productos para ser distribuidos como Software Libre.

www.n-economia.com/notas_alerta/pdf/ALERTA_NE_15-2005.PDF

Qué pasa con los sistemas P2P.

¿Qué pasa con las redes p2p?: Legales o Ilegales
P2p, “peer to peer”, punto a punto, conexiones casi directas entre miles de usuarios que comparten ficheros.

Esta tecnología ya va por su tercera generación. La primera liderada por Napster, la segunda por KaaZa, y la tercera con una mula acelerada de por medio.

Y su difusión parece imparable, a medida que las comunicaciones se hacen más rápidas (y no más baratas, al menos en España) cada vez es mayor la cantidad de programas y archivos multimedia que podemos descargar de estas redes. ¿Ilegal?

Internet ha permitido sacarle punta a las leyes, difuminar los límites de lo legal, llevar al extremo cada artículo de cada libro de derecho existente. Sobre todo en lo referente a la libertad. El eterno conflicto que muchos resumen en una simple frase que en realidad nada resuelve: “tu libertad termina donde comienza la de los demás” y que yo encogería aún más hasta simplificarla con la escueta palabra “respeto”.

Una red p2p comprende varios elementos básicos. Uno es una red, compuesta por servidores, que comunican a los usuarios entre sí. Otra son los programas cliente que usamos para conectarnos a estas redes. Por supuesto, también los propios usuarios que utilizan este software, y, por último, los propios programas y ficheros que se comparten. ¿Cuál de estos elementos es ilegal? ¿Todos? ¿Algunos? ¿O la interacción de unos con otros? Los servidores conectan sistemas, son redes con información, y esto no lo diferencia mucho de un servidor web o cualquier otro ordenador de Internet. Además, cada servidor se encuentra en un punto geográfico distinto, con sus propias leyes y fórmulas, por lo que no se puede aplicar un mismo método para todos. Los programas cliente son software legal, que se ofrece gratuitamente para ser descargado desde muchos puntos de Internet. Esto es perfectamente legal. Los usuarios… ¿desde cuándo una persona es ilegal? En todo caso, sería necesario estudiar sus intenciones. Y los programas y archivos que se comparten… La información no es ilegal mientras no la ampare un derecho de copyright. Ahí entramos en el meollo de la cuestión. La mayoría de los archivos, películas, programas y música que nutren esta red están protegidos y esto es ilegal. No se puede adquirir gratuitamente una canción protegida, eso está bastante claro.

Pero… un momento. La ley ampara el derecho de la copia privada de seguridad. Cuando compramos un cedé de música, podemos hacer una copia para escucharla en el coche mientras mantenemos el original en casa, así que nada nos impide usar Internet para descargar una copia de un cedé que he adquirido legalmente, si no tengo o no sé usar la grabadora. De hecho, la mayoría de las páginas que ofrecen enlaces directos a descargas de la red de eMule (tipo spanishare.com) advierten de este derecho en su página de presentación para cubrirse las espaldas. La cosa se complica. Está claro que las personas con malas intenciones pueden no comprar el cedé, y descargarlo de Internet directamente. Así que estos usuarios estarían cometiendo un acto ilegal. Pero, la realidad es que no se lucran de estas descargas, no venden a terceros las películas o discos que descargan, así que volvemos al derecho de libre intercambio de información. Se debería luchar contra las redes que usan Internet para nutrir al “top manta” de discos y películas baratas de baja calidad, no contra el usuario que no se puede permitir pagar una entrada al cine para disfrutar de una buena película que, probablemente, ni siquiera se mantenga más de un fin de semana en cartel.

¿Cómo evitar esto entonces? En España, el despacho de abogados Landwell-PriceWaterhouseCoopers (PwC), anunció una denuncia presentada ante la Brigada de Investigación Tecnológica (BIT) del Cuerpo Nacional de Policía que tenía por objeto 95.000 usuarios de p2p, de los que se elegirían los 4.000 que se hubiesen descargado más archivos. Consistía en una demanda común de 32 compañías del sector (que permanecieron en secreto) contra “quienes reproduzcan y distribuyan ilegalmente software profesional”. La demanda no iba dirigida contra las descargas de música, sino contra el tráfico de software español protegido. La organización española de la BSA, organismo internacional dedicado a la persecución del software pirata, se desmarcó de esta iniciativa alegando una diferencia de filosofía sobre los métodos de persecución del pirateo, y dejó a PwC sólo ante sus ideas.

Para defenderse de la violación del derecho a la privacidad de las comunicaciones que ampara la Constitución y que la investigación de la demanda de PwC conllevaba, la Asociación de Internatuas puso a disposición de todos un programa denominado PeerGuardian que impide “el espionaje” al bloquear las direcciones IP solicitadas. Este programa de libre distribución y uso, puede descargarse desde la página web de su creador Methlab Productions. Impide las conexiones a nuestro cliente eMule de ciertos rangos de direcciones, pertenecientes, supuestamente, a los que pretenden espiar las comunicaciones. Los rangos son actualizables y se dan a conocer en foros y webs públicas.

La Asociación de la Industria Fonográfica de Estados Unidos (RIAA, por sus siglas en inglés) también presentó por su parte 41 demandas contra personas que intercambian música por Internet ante tribunales federales por todo el país. Un portavoz sostuvo que la entidad tiene previsto advertir a otras 90 personas de que podrían ser demandadas en el futuro inmediato. Bajo las leyes de derecho de autor, cada acusado puede ser obligado a pagar compensaciones a las grandes discográficas de hasta 150.000 dólares por canción. La RIAA se ha ganado la impopularidad y, por qué no decirlo, el odio de millones de internautas norteamericanos, que han visto vengado “su honor” con la desfiguración de su página web en más de cuatro ocasiones, incluyendo mensajes alusivos a la libre información e intercambio de ficheros que hackers incrustaron en la propia portada de la asociación.

¿Hemos llegado a alguna conclusión? Me temo que no. Los usuarios expresan libremente su deseo de intercambiar información de forma libre y privada, y los que creen perder dinero, apuntan hacia donde no es, intentando investigar a los usuarios, en vez de a las mafias que se lucran de estas tecnologías. La industria audio-visual debe adaptarse a los nuevos tiempos, en vez de luchar contra una marea que tarde o temprano, acabará arrastrándole. La distribución de música explora ahora nuevos sistemas mucho más efectivos y baratos, y parecen no entender que 15 Euros por un cedé sigue siendo excesivo. Existen programas de descarga legal de música que ofrecen una calidad sin igual por mucho menos que el álbum físico, y han tenido éxito. ¿Por qué no se riden a la evidencia? Renovarse o morir.

http://mundoinformatica.portalmundos.com/%C2%BFque-pasa-con-las-redes-p2p-legales-o-ilegales/

Copyright, música e Internet. Con la música a otra parte



Eso es principalmente lo que nos propone una de las novedades incluidas en la nueva versión de WinAMP, el clásico reproductor multimedia que ya lleva 10 años entre nosotros.

En su últiima actualización sorprende una opción aún en fase beta en la que se nos propone probar una nueva e innovadora funcionalidad: WinAMP Remote, una utilidad que, desarrollada junto a AOL y ORB, nos va a poner en bandeja disfrutar de nuestra música allá donde vallamos e incluso compartirla con nuestros amigos.

Sacarle el máximo partido a esta utilidad es extremadamente fácil: Instalamos WinAMP Remote en nuestro ordenador de casa y podremos añadir a él nustra librería multimedia tras un pequeño y sencillo registro que no nos llevará más de un minuto. Tras ello, y con nuestro nombre de usuario y contraseña, podremos acceder a nuestra librería multimedia desde cualquier punto del planeta, siempre y cuando dispongamos de una conexión a internet, no será necesario tan siquiera el reproductor WinAMP para ello, simplemente tendremos que acceder a la direccion de WinAMP Remote: http://corp.orb.com/winamp/index.html , aunque si en tro ordenador tenemos instalado WinAMP simplemente tendremos que acceder a la opción indicada.

Eso sí, el ordenador “fuente” debe estar conectado a internet para poder acceder a la música, vídeo, fotos e incluso documentos. De este modo convertiremos a nuestro ordenador de casa en nuestra fuente musical para nosotros y nuestros amigos.

Así, sacaremos partido a la conexión a internet de, por ejemplo, las consolas de nueva generación, los moviles e incluso al ordenador de la oficina, desde el que podremos escuchar la música de nuestra casa sin necesidad de nuestro querido iPod, Walkman o cualquier otro dispositivo.

Si queremos compartir nuestra música y vídeos con nuestros amigos, solo tendremos que añadirlos a nuestra lista de amigos de WinAMP Remote y podrán acceder a nuestra librería, eso sí, aún no hemos visto la manera de descargar ese contenido (pero tiempo al tiempo, que seguro que hay quien está viendo una puerta abierta).

Me gusta las canciones de Monica Naranjo mucho. Ella canta muy bien y desde sus canciones podemos a ver las cosas en lo hondo de su alma.....Reconoce mucho el favor del forma del internet, ahora podemos escuchar el voz maravilloso en el mundo del Monica Naranjo...

http://www.uptodown.com/blog/winamp-remote-con-la-musica-a-otra-parte/