<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:dc="http://purl.org/dc/elements/1.1/" version="2.0">
<channel>
<title>Vol. 25, no. 49</title>
<link>http://ridaa.unq.edu.ar/handle/20.500.11807/3453</link>
<description>Publicada en diciembre de 2019.</description>
<pubDate>Mon, 27 Apr 2026 10:40:00 GMT</pubDate>
<dc:date>2026-04-27T10:40:00Z</dc:date>
<item>
<title>Políticas tecnológicas de frontera y orientadas a misiones : el caso de la nanotecnología y los satélites geoestacionarios en Argentina</title>
<link>http://ridaa.unq.edu.ar/handle/20.500.11807/3462</link>
<description>Políticas tecnológicas de frontera y orientadas a misiones : el caso de la nanotecnología y los satélites geoestacionarios en Argentina; Frontier and mission oriented technological policies : the case of nanotechnology and geostationary satellites in Argentina
El problema de las políticas necesarias para impulsar el cambio tecnológico es una debilidad crucial y persistente en América Latina. En este sentido, este artículo se propone discutir dos concepciones de políticas tecnológicas para países en desarrollo que suponen distintas estrategias institucionales: las políticas tecnológicas para promover tecnologías de frontera y las políticas orientadas a misiones. Como ejemplos, se analizan las políticas de nanotecnología y de desarrollo de satélites geoestacionarios impulsadas en la Argentina entre 2003 y 2015. En el caso de la nanotecnología, se trató de una estrategia tendiente a promover una tecnología de propósito general, orientada a mejorar el desempeño del sector productivo con el argumento del impacto en la competitividad económica, que en la práctica terminó fuertemente orientada por los intereses de la comunidad científica, alejándose de los objetivos propuestos. Mientras tanto, el desarrollo satelital fue impulsado a partir de empresas públicas con el objetivo de desarrollar capacidades industriales. Este trabajo contrapone ambos casos, buscando determinar la efectividad de ambas políticas tecnológicas en contexto de países en desarrollo.; The issue of the policies necessary to promote technological change is a crucial and persistent weakness in Latin America. In this sense, this article aims to discuss two conceptions of technological policies for developing countries that involve different institutional strategies: technological policies to promote frontier technologies and mission-oriented policies. As examples, we analyze the nanotechnology policies and geostationary satellites development policies promoted in Argentina between 2003 and 2015. In the case of nanotechnology, it was a strategy aimed at promoting a general-purpose technology, oriented at improving the performance of the productive sector through the argument of the impact on economic competitiveness, which in practice ended up strongly oriented by the interests of the scientific community, moving away from the proposed objectives. While the satellite development was promoted by public companies with the aim of developing industrial capabilities. This work contrasts both cases, seeking to determine the effectiveness of both technological policies in context of developing countries.
Fil: Surtayeva, Sofya. Universidad Nacional de San Martín. Centro de Estudios de Historia de la Ciencia y la Tecnología José Babini; Argentina.; Fil: Surtayeva, Sofya. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentina.
</description>
<pubDate>Sun, 01 Dec 2019 00:00:00 GMT</pubDate>
<guid isPermaLink="false">http://ridaa.unq.edu.ar/handle/20.500.11807/3462</guid>
<dc:date>2019-12-01T00:00:00Z</dc:date>
</item>
<item>
<title>La evaluación académica basada en indicadores bibliométricos como sistema socio-técnico. Micro y macropolítica de la jerarquización de productos y actividades científicas y tecnológicas</title>
<link>http://ridaa.unq.edu.ar/handle/20.500.11807/3461</link>
<description>La evaluación académica basada en indicadores bibliométricos como sistema socio-técnico. Micro y macropolítica de la jerarquización de productos y actividades científicas y tecnológicas; Academic review based on bibliometric indicators as a socio-technical system. Micro and macropolitics of the hierarchy of S and T products and activities
La evaluación académica basada en indicadores bibliométricos cuantitativos (factor de impacto - WoS; Scimago SJR - Scopus e índice h - Google Scholar) se ha convertido en las últimas décadas en uno de los principales pilares de la jerarquización de publicaciones, la definición de agendas de investigación, la conformación de equipos de investigación, la asignación de recursos financieros y la promoción (y a veces estancamiento) de trayectorias profesionales de investigadores y tecnólogos. Esta centralidad ha determinado múltiples niveles de incidencia de una práctica relativamente restringida a dinámicas intracomunitarias, al punto de convertir la tecnología de evaluación “objetiva” basada en indicadores bibliométricos en una práctica hegemónica. Sin embargo, tal hegemonía no implica un consenso absoluto: los manifiestos contenidos en este dossier son una prueba de ello. El presente trabajo responde a los siguientes objetivos: 1) comprender cómo fue el proceso de construcción y adopción del sistema de evaluación basado en indicadores bibliométricos, la estabilización de ciertos criterios, la adopción de ciertas técnicas de medición y control; 2) analizar el alcance e incidencia de este sistema sobre las actividades científicas y tecnológicas, tanto en un nivel general/global como nacional y regional, y 3) analizar los encadenamientos explicativo-causales de este sistema de evaluación académica sobre la generación / inhibición de capacidades de investigación y desarrollo, en particular, sobre la dinámica sociocognitiva de los aparatos tecnoproductivos de países en vías de desarrollo. El análisis se despliega desde un abordaje socio-técnico y se presenta en clave de un argumento incremental. En primer lugar, se analiza la trayectoria socio-técnica de la transición entre la tecnología de evaluación por pares (subjetiva, “idiosincrásica”) y la bibliométrica (“objetiva”), poniendo el foco en el proceso de cambio no-lineal que sufrieron los criterios, mecanismos, protocolos y prácticas (desde fines de la segunda guerra mundial hasta la actualidad) a escala internacional y su adecuación a los complejos institucionales de CyT latinoamericanos. En segunda instancia, se abordan problemas puntuales de la tecnología de evaluación basada en indicadores bibliométricos. Así, se analizan los problemas (conceptuales y empíricos) de la evaluación “objetiva”, y sus problemas derivados: sobre la concepción de la calidad de la producción académica; las microprácticas de los investigadores y las microprácticas de evaluación. Este análisis por elementos puntuales se integra, en una tercera instancia, en términos sistémicos. Se pone en tensión qué mide (y por derivación, qué invisibiliza) la evaluación “objetiva”; cómo incide esta tecnología de evaluación en la relación entre la producción de conocimiento científico y la producción de bienes y servicios; entre la producción de conocimientos científicos y la producción de soluciones a problemas locales; y entre las agendas de investigación y las políticas públicas de ciencia, tecnología, innovación y desarrollo en América Latina. El artículo concluye, en un cuarto nivel de análisis, con una reconstrucción analítica de la alianza socio-técnica en términos de las capacidades relacionales, los bucles de retroalimentación y la dinámica inercial que construye, estabiliza y refuerza el funcionamiento de la tecnología de evaluación “objetiva”. Este último nivel de análisis permite dimensionar la capacidad transformadora de las diferentes soluciones –propuestas en los manifiestos– a los problemas analizados.; The academic review based on quantitative bibliometric indicators –impact factor – WoS; Scimago SJR – Scopus and h-index – Google Scholar– has become in recent decades one of the main pillars of the hierarchy of publications, the definition of research agendas, the formation of research teams, the allocation of financial resources and the promotion –and sometimes stagnation– of professional careers for researchers and technologists. This centrality has determined multiple levels of incidence from a practice relatively restricted to intra-community dynamics, to the point of turning “objective” review technology based on bibliometric indicators into a hegemonic practice. However, such hegemony does not imply an absolute consensus: the manifestos contained in this dossier are proof of this. The present work responds to the following objectives: 1) understand how was the process of construction and adoption of the review system based on bibliometric indicators –the stabilization of certain criteria and the adoption of certain measurement and control techniques–, 2) analyze the scope and incidence of this system on scientific and technological activities, both at a general/global level and national and regional one, and 3) analyze the explanatory-causal linkages of this academic review technology on the generation / inhibition of research and development capacities, in particular, on the socio-cognitive dynamics of the techno-productive structures of developing countries. The analysis are deployed from a socio-technical approach and is presented in terms of an incremental argument. First, the socio-technical trajectory of the transition between peer review technology –subjective, “idiosyncratic”– and bibliometric –“objective”– is analyzed, focusing on the non-linear change process suffered by: criteria, mechanisms, protocols and practices –from the end of the Second World War to the present day– on an international scale and their adaptation to the Latin American S&amp;T institutional arrangements. Second, specific problems of review technology based on bibliometric indicators are addressed. Thus, the problems –conceptual and empirical– of the “objective” review are analyzed, as well as their derived problems: on the conception of the quality of academic production; researchers micropractices and review micro-practices. This analysis by specific elements is integrated, in a third instance, in systemic terms. What the “objective” review measures –and by derivation, what makes invisible– is put into tension; how does this review technology affect the relationship between the production of scientific knowledge and the production of goods and services; between the production of scientific knowledge and the production of solutions to local problems; and between the research agendas and the public policies of science, technology, innovation and development in Latin America. The article concludes, in a fourth level of analysis, with an analytical reconstruction of the socio-technical alliance in terms of the relational capacities, the loops and the inertial dynamics that builds, stabilizes and reinforces the working dynamic of the “objective” review technology. This last level of analysis allows us to measure the transforming capacity of the different solutions –proposed in the manifests– to the problems analyzed.
Fil: Thomas, Hernán. Universidad Nacional de Quilmes. Instituto de Estudios sobre la Ciencia y la Tecnología; Argentina.; Fil: Thomas, Hernán. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentina.; Fil: Becerra, Lucas. Universidad Nacional de Quilmes. Instituto de Estudios sobre la Ciencia y la Tecnología; Argentina.; Fil: Becerra, Lucas. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentina.; Fil: Trentini, Florencia. Universidad Nacional de Quilmes. Instituto de Estudios sobre la Ciencia y la Tecnología; Argentina.; Fil: Trentini, Florencia. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentina.
</description>
<pubDate>Sun, 01 Dec 2019 00:00:00 GMT</pubDate>
<guid isPermaLink="false">http://ridaa.unq.edu.ar/handle/20.500.11807/3461</guid>
<dc:date>2019-12-01T00:00:00Z</dc:date>
</item>
<item>
<title>Críticas recientes a la evaluación de la investigación : ¿vino nuevo en odres viejos?</title>
<link>http://ridaa.unq.edu.ar/handle/20.500.11807/3459</link>
<description>Críticas recientes a la evaluación de la investigación : ¿vino nuevo en odres viejos?; Recent critiques of scientific evaluation : new wine into old wineskins?
Este artículo examina las críticas recientes a la evaluación de la producción científica plasmadas en siete documentos / manifiestos publicados entre 2010 y 2016. Los objetivos planteados son de dos tipos: a) examinar y valorar las críticas a la evaluación de la ciencia –académica– realizadas en los mencionados manifiestos y b) comparar esas críticas con las realizadas en décadas anteriores, indagando si hay identidades, divergencias, cuestiones viejas y emergentes. Los textos fueron seleccionados llevando en consideración su amplia divulgación y la discusión que suscitaron. El estudio fue realizado a partir de un análisis de contenido de los textos y de su contextualización mediante revisión de literatura. Concluimos que la mayor parte de las críticas a la evaluación de la producción científica realizada en los manifiestos no es nueva, aunque hay un claro desplazamiento del centro de la discusión desde la revisión por pares hacia la evaluación cuantitativa mediante indicadores bibliométricos. Es evidente también que algunas críticas, como las que señalan un deterioro en la calidad y relevancia de la actividad científica, han ido adquiriendo más fuerza en los últimos años, conforme la escala y la eficiencia de aplicación de la evaluación cuantitativa se han ido ampliando y sus efectos sobre la dinámica de producción de conocimiento y la actividad universitaria tienden a manifestarse más claramente.; This article examines recent critiques of scientific evaluation exposed in seven documents-manifestos published between 2010 and 2016. The goals are two-fold: a) to examine and assess the critiques of (academic) science evaluation contained in the aforementioned manifestos and b) to compare these critiques with those made in previous decades, exploring the identities, divergences, old and emergent issues. The texts were selected taking into consideration their wide dissemination and the discussion they prompted. The study was carried out through content analysis of the texts and their contextualization through a literature review. We concluded that most of the critiques to science evaluation depicted in the manifestos are not new; however, there is a clear displacement of the center of the discussion from peer review towards quantitative bibliometric assessment. It is also evident that some critiques, particularly those calling attention to the degradation of scientific quality and relevance, became stronger over the past decade, following the increasing scale and efficiency of the application of quantitative evaluation methods, making more evident their effects on knowledge production and the academic activity.
Fil: Invernizzi, Noela. Universidade Federal do Paraná; Brasil.; Fil: Davyt, Amílcar. Universidad de la República; Uruguay.
</description>
<pubDate>Sun, 01 Dec 2019 00:00:00 GMT</pubDate>
<guid isPermaLink="false">http://ridaa.unq.edu.ar/handle/20.500.11807/3459</guid>
<dc:date>2019-12-01T00:00:00Z</dc:date>
</item>
<item>
<title>Manifiestos</title>
<link>http://ridaa.unq.edu.ar/handle/20.500.11807/3458</link>
<description>Manifiestos; Manisfestos
En este dossier especial de Revista Redes ponemos a disposición del público hispano parlante 7 documentos que, consideramos, son clave para entender el malestar de la cultura en torno a la evaluación académica. La finalidad de esta sección, es presentar todos los documentos en español (algunos ha sido necesario traducirlos) juntos a los fines de que dialoguen con los documentos escritor por Noela Invernizzi y Amilcar Davyt y por Hernán Thomas, Florencia Trentini y Lucas Becerra. 1) Centro steps – Universidad de Sussex (2010): Innovación, sustentabilidad y desarrollo. Un Nuevo Manifiesto; 2) The Slow Science Academy (2010): El Manifesto de la ciencia lenta; 3) American Society for Cell Biology et al. (2012): Declaración de San Francisco sobre la Evaluación de la investigación (DORA); 4) L’Atelier des Chercheurs – Universidad Libre de Bruselas (2014): Estatuto de la desexcelencia (Versión 1.1); 5) Diana Hicks, Paul Wouters, Ludo Waltman, Sarah de Rijcke e Ismael Rafols (2015): El Manifiesto de Leiden sobre indicadores de investigación; 6) Willem Halffman y Hans Radder (2017 [2015]): Manifiesto académico: de la universidad ocupada a la universidad pública; 7) Daniel Sarewitz (2017 [2016]): Salvar la ciencia. Todas las reproducciones aquí presentadas cumplen con las licencias de publicación correspondientes y no son alcanzadas por las licencias de Revista Redes.
Fil: Hicks, Diana. Georgia Institute of Technology. School of Public Policy; Estados Unidos.; Fil: Wouters, Paul. Universiteit Leiden. Centrum voor Wetenschaps- en Technologiestudies; Países Bajos.; Fil: Waltman, Ludo. Universiteit Leiden. Centrum voor Wetenschaps- en Technologiestudies; Países Bajos.; Fil: De Rijcke, Sarah. Universiteit Leiden. Centrum voor Wetenschaps- en Technologiestudies; Países Bajos.; Fil: Rafols, Ismael. Universitat Politècnica de València. Instituto de Gestión de la Innovación y del Conocimiento; España.; Fil: Rafols, Ismael. University of Sussex. Science Policy Research Unit; Reino Unido.; Fil: Rafols, Ismael. Haut Conseil de l’évaluation de la recherche et de l’enseignement supérieur. Observatoire des Sciences et Techniques; Francia.; Fil: Halffman, Willem. Radboud University. Faculty of Science. Institute for Science, Innovation and Society; Países Bajos.; Fil: Radder, Hans. Universiteit van Amsterdam. Gedragscode afdeling Filosofie; Países Bajos.; Fil: Sarewitz, Daniel. Arizona State University. School for the Future of Innovation in Society; Estados Unidos.
</description>
<pubDate>Sun, 01 Dec 2019 00:00:00 GMT</pubDate>
<guid isPermaLink="false">http://ridaa.unq.edu.ar/handle/20.500.11807/3458</guid>
<dc:date>2019-12-01T00:00:00Z</dc:date>
</item>
</channel>
</rss>
