Archive for the ‘Ciencias computacionales’ Category

Tesauros

miércoles, febrero 20th, 2019

Noción

Un tesauro es requisito de los mejores sistemas de recuperación de información, y es terreno de especialistas.

La palabra tesauro responde a las siguientes nociones:

“Etimológicamente viene del latín y su significación era tesoro. Definición que tiene poco que ver con el concepto que tiene hoy para un documentalista, así la norma ISO 2788 / TC 46 «Principes directeurs pour létablissement et le devellopement de thesaurus monolingues», nos dice que estos se pueden definir según su función y según su estructura:

  – Por su función. Como un instrumento de control terminológico utilizado para trasponer a un lenguaje más estricto el idioma natural empleado en los documentos y por los indizadores.

  -Por su estructura. Es un vocabulario controlado y dinámico de términos que tienen entre ellos relaciones semánticas y genéricas y que se aplica a un dominio particular del conocimiento.

  P. Levery, es el puente entre el lenguaje del informado (documentalista) y el lenguaje del no informado (usuario)” (Universidad de Salamanca, fuente: http://sabus.usal.es/docu/pdf/Tesauro.PDF).

La norma ISO actual es otra: ISO 25964-1:2011: “Information and documentation — Thesauri and interoperability with other vocabularies — Part 1: Thesauri for information retrieval” .

Ejemplo en el campo TIC

La UNESCO tiene un tesauro de información y comunicación, dentro del Tesauro Unesco, de alcance general:

“El Tesauro de la UNESCO es una lista controlada y estructurada de términos para el análisis temático y la búsqueda de documentos y publicaciones en los campos de la educación, cultura, ciencias naturales, ciencias sociales y humanas, comunicación e información. Continuamente ampliada y actualizada, su terminología multidisciplinaria refleja la evolución de los programas y actividades de la Organización.

El Tesauro contiene 7,000 términos en inglés y en ruso, y 8,600 en francés y en español” (ver Ver: http://www.iso.org/iso/catalogue_detail.htm?csnumber=53657).

Como mi especialidad es el área de las comunicaciones, como ilustración señalo que este tesauro tiene siete listas principales, de las cuales la 5ª es “Información y comunicación”, descompuesta en estos microtesauros:

“5.05 Ciencias de la información,

5.10 Investigación y política de la comunicación,

5.15 Gestión de la información,

5.20 Industria de la información,

5.25 Sistemas de información documental,

5.30 Fuentes de información,

5.35 Tratamiento de la información documental,

5.40 Tecnología de la información (programas),

5.45 Tecnología de la información (equipos));” (misma fuente)

El 5.10 contiene, por ejemplo, este término:

“Término:    Investigación sobre la comunicación   [560]    registro siguiente

MT 5.10 Investigación y política de la comunicación

TE Estudio de audiencia    [175]

      UP Análisis de audiencia

….TE2 Cifra de tirada    [28]

….TE2 Medición de audiencia    [28]

….TE2 Participación del público    [51]

….TE2 Reacción del público    [90]

TE Historia de la comunicación    [187]

TE Impacto de la comunicación    [773]

      UP Efectos de la comunicación

TE Psicología de la comunicación    [158]

TE Sociología de la comunicación    [306]

….TE2 Opinión pública    [354]

TE Teoría de la información    [159]

      UP Contenido

      UP Emisor

      UP Mensaje

      UP Receptor

      UP Teoría de la comunicación

….TE2 Código    [51]” (ibid.)

Los grupos de letras MT, TE y otras corresponden a “símbolos” propios de la jerga de la elaboración de tesauros:

“Significado de los símbolos

NA – Nota de alcance: indica la utilización a que se destina un descriptor.

MT – Microtesauro: número y nombre del microtesauro al que pertenece un término.

UP – Utilizado por: indica un no descriptor, es decir, un sinónimo o término muy cercano al descriptor.

USE – Utilizar: indica el término preferido, es decir, el descriptor.

TG – Término genérico: indica el término más amplio.

TE – Término específico: indica el término más restringido.

TR – Término relacionado: indica la relación entre descriptores unidos por una asociación de ideas” (Fuente: http://databases.unesco.org/thessp/help.html#sn) .

Ahora tiene la idea de qué es un tesauro.

Hablemos de un tesauro de uso diario: el de medios de comunicación. ¿No se ha preguntado cómo hacen los grandes medios de comunicación para clasificar la información disponible, de tal manera que pueda encontrarse más fácilmente y, además, información relacionada? Para eso existe el IPTC (http://orff.uc3m.es/bitstream/handle/10016/9799/tesauros_garcia_ICT_2007.pdf?sequence=1).

Cómo se hace un tesauro de medios: http://orff.uc3m.es/bitstream/handle/10016/9799/tesauros_garcia_ICT_2007.pdf?sequence=1.

La Resolución 2710 de 2017 (IPv6 en Colombia)

viernes, octubre 6th, 2017

IPv6

El Ministerio de Tecnologías de la Información y las Comunicaciones ha expedido la Resolución 2710 de 2017 “Por la cual se establecen lineamientos para la adopción del protocolo IPv6”. La fecha de la resolución es 3 de octubre de 2017, fue publicada en el Diario Oficial 50.376 del 4 de Octubre de 2017, página 18, de manera que ya está vigente.

Veamos primero la materia de la resolución, luego aspectos prácticos que deberían ya estar considerando muchas personas en Colombia y finalmente dónde encontrar los anexos que se mencionan los considerandos. No creo que la materia de esta resolución le es ajena, porque hay muchas posibilidades de que usted tenga que ver con ella porque es director de una entidad obligada, porque contrata con el Estado tecnología, porque es responsable del área de contratos de una entidad pública o porque es proveedor de tecnología, etc.. Hay muchas posibilidades de que esta norma le afecte. Por ejemplo, en la Resolución 2710 de 2017 hay una modificación importantísima a las reglas contractuales estatales, pues introduce una regla general, necesaria para promover la adopción de IPv6 y que rige con la publicación de la norma: en los nuevos procesos debe incluir la capacidad de IPv6.


1. MATERIA

En cuanto a la materia, trata de lo siguiente (versión sencilla, sin meternos en problemas como direccionamiento dinámico en IPv4, etc.): todas las máquinas que se conectan a internet para intercambiar información, requieren identificarse, lo cual hacen mediante un número. De esa manera los datos que circulan por internet recuerdan de qué dispositivo salieron, qué camino recorrieron hasta que llegaron a dónde podían cumplir su propósito y luego regresar al dispositivo de origen; a esos números los llamamos direcciones. Es decir, cada dispositivo tiene una dirección para identificarse en internet. Las direcciones en internet atienden un estándar de numeración muy preciso, es decir, un protocolo, el conjunto de reglas para ser creadas. Hoy existen dos protocolos, uno de la época en que comenzó internet (IPv4, significa Internet Protocol versión 4), que se agotó desde 2011 (ese año se hizo entrega del último paquete de IPv4 de direcciones); el otro protocolo es de más reciente desarrollo (1998), y se llama IPv6, porque es la versión 6, y es más largo, de manera que muchísimos más dispositivos pueden ser conectados a internet. Es con IPv6 que puede existir el internet de las cosas (Internet of Things IoT), es decir, muchísimos dispositivos conectados con suficientes direcciones para cada uno (ver un video de IoT en https://www.youtube.com/watch?v=FrcmgTs7buY). Eso es lo que se lee en algunos de los considerandos de la resolución:

“Que actualmente el protocolo de Internet más utilizando es la versión número 4 (IPv4), con direcciones de 32 bits de longitud, lo que equivale a un total de 4.294.967.296 de direcciones IP para uso a nivel mundial.

Que el 10 de junio de 2014, la entidad responsable del Registro de Direcciones de Internet para América Latina y el Caribe, (LACNIC por sus siglas en inglés) la cual dependía de la Autoridad Mundial para la Asignación de Números de Internet (IANA por sus siglas en inglés); anunció en su página web en el enlace:  http://www.lacnic.net/web/anuncios/2014-no-hay-mas-direcciones-ipv4-en-lac el agotamiento del stock de direcciones IPv4 y expresó su preocupación por la demora de los gobiernos y proveedores de servicio de internet – ISP en la adopción de la versión 6 del protocolo (IPv6) en la región.

Que el Grupo de Trabajo en Ingeniería de Internet (IETF por sus siglas en inglés), organismo encargado de la estandarización de los protocolos de Internet, desarrolló una nueva versión del Protocolo de Internet, llamado IP versión 6 (IPv6) en el año 1998; la cual cuenta con una longitud de direcciones de 128 bits, lo que equivale a un total de 340 sextillones de posibles direcciones IP: 340.282.366.920.938.463.463.374.607.431.768.211.456 de direcciones).”

Por tanto, las redes deberían usar IPv6 para funcionar en su posibilidad más moderna. La Resolución 2710 de 2017 ordena que las entidades estatales modernicen su infraestructura tecnológica a IPv6, en los términos allí señalados. Eso permite pasar a aspectos prácticos de la resolución.


2. ASPECTOS PRÁCTICOS DE LA RESOLUCIÓN 2710 DE 2017.

El texto de la parte resolutiva es muy breve, de manera que ruego remitirse al mismo. Pero resalto lo siguiente:

i. La infraestructura TIC de todas las entidades estatales deben operar bajo IPv6, en coexistencia con IPv4.

ii. Ello debe suceder:

a. Para entidades del orden nacional, por tarde el 31 de diciembre de 2019;

b. Para entidades territoriales, por tarde el 31 de diciembre de 2020;

c. Rama legislativa, judicial, organismos de control y particulares que ejercen funciones públicas, es asunto que deberá coordinarse.

iii. La referencia para la transición a IPv6 son dos documentos, mencionados en la resolución: “Guía de transición de IPv4 a IPv6 para Colombia” y “Guía para el aseguramiento del Protocolo IPv6”. En dónde están lo indicaré después.

iv. TODA la contratación bajo el estatuto estatal que tenga que ver con infraestructura TIC, iniciada a partir de la vigencia de la resolución, debe exigir soporte nativo IPv6.

v. Las sanciones dependen del régimen en que se produzca la conducta. Por ejemplo, no cumplir con el plazo de migración a IPv6, para una entidad estatal, puede crear responsabilidad en la parte disciplinario por incumplimiento de un deber legal, por ejemplo, y no tramitar un proceso contractual conforme ordena el art. 5º pues puede suponer infracción a las reglas sobre cómo contrata el Estado, etc..

3. DÓNDE ESTÁN LAS GUÍAS QUE SE MENCIONAN EN LA RESOLUCIÓN 2710 DE 2017

Son la “Guía de transición de IPv4 a IPv6 para Colombia” y “Guía para el aseguramiento del Protocolo IPv6”. Las encuentra en la página “Documentos IPv6” (http://www.mintic.gov.co/portal/604/w3-article-5903.html) del Ministerio de Tecnologías de la Información y las Comunicaciones.


Lectura complementaria sugerida:

“Cómo funciona la administración de nombres de dominio”

Mapas conceptuales como herramienta de gestión de conocimiento y algunas aplicaciones

jueves, agosto 31st, 2017

Un área de conocimiento puede ser representada gráficamente. Una forma son los mapas conceptuales usando la herramienta CMAPTOOLS del Institute for Human & Machine Cognition IHMC de la Florida University.  Los padres de los mapas conceptuales son Joseph D. Novak y Alberto J. Cañas. La documentación oficial sobre CmapTools y mapas conceptuales la encuentra en este enlace.

Un mapa conceptual no es cualquier esquema gráfico de representación del conocimiento, sino la realizada con la herramienta y la metodología del IHMC. Por lo mismo, herramientas como los mapas mentales aunque son una metodología análoga, no son sinónimos.

La justificación del uso de mapas conceptuales es la siguiente:

“Los mapas conceptuales o redes semánticas (representación visual del conocimiento) han demostrado ser mucho más cercanos del modo humano de pensar que el texto, las listas o las tablas de datos. Permiten una mejor comprensión del argumento representado y su uso da como resultado la obtención de una mejor, más confiable y más duradera organización de la memoria a largo plazo, con respecto a la memorización por repetición, clásica de la presentación de la información.” (Sánchez Muñoz , Dora Lilia (2012), El uso de mapas conceptuales utilizando Cmap Tools como estrategia para la enseñanza – aprendizaje de equilibrio, página 14, en http://www.bdigital.unal.edu.co/9098/)

Para la teoría básica de construcción de un mapa conceptual puede ver el video “How to Construct a Concept Map” del IHMC en el área de videos de soporte. Para la teoría general sobre mapas conceptuales, puede leer “The Theory Underlying Concept Maps and How to Construct and Use Them”.

Con respecto a la lectura de un mapa conceptual, se procede en general así:

“La lectura comienza del concepto de mayor jerarquía y la secuencia de lectura está determinada por las ligas que unen los conceptos. La lectura del mapa conceptual produce proposiciones o enunciados.
Una proposición es un tipo particular de enunciado al que puede adjudicársele un valor de verdad, mientras que un enunciado, es en general, una expresión lingüística que no siempre puede ser calificada como cierta o falsa. Novak (1998; Novak y Gowin, 1988) considera que el conocimiento científico puede entenderse como una estructura compleja de proposiciones, por lo que el objetivo del científico es construir proposiciones verdaderas. Desde esta perspectiva, el progreso de la ciencia podría ser considerado como el proceso de demostrar la validez de las proposiciones contenidas en una teoría y descartar aquellas que resulten falsas.” (Sánchez Muñoz , Dora Lilia (2012), El uso de mapas conceptuales utilizando Cmap Tools como estrategia para la enseñanza – aprendizaje de equilibrio, página 14, en http://www.bdigital.unal.edu.co/9098/)

Un mapa conceptual puede usar flechas (grafos) para indicar la secuencia de presentación de las relaciones. Usualmente, los mapas conceptuales van de arriba hacia abajo, y de izquierda a derecha, sin grafos, aunque esto no es una regla.

“El uso de mapas conceptuales no es extraño en la básica secundaria o media vocacional, incluso en ocasiones se usa en básica primaria como recurso de exposición de los docentes. Este mecanismo ayuda a sintetizar y relacionar los conceptos claves de un tema, permitiendo tener una mirada global del mismo en pocas palabras y sirviendo como estrategia de socialización. Para apoyar la construcción de estos mapas conceptuales fue que el Instituto para el Conocimiento del Hombre y la Máquina de la Universidad de West Florida (Estados Unidos) diseñó el programa CmapTools.” (Sánchez Muñoz , Dora Lilia (2012), El uso de mapas conceptuales utilizando Cmap Tools como estrategia para la enseñanza – aprendizaje de equilibrio, página 22, en http://www.bdigital.unal.edu.co/9098/)

Desde luego, CmapTools puede usarse para muchos fines. En mi nota “Nueva estructura del Ministerio de Tecnología D. 1414/17” puede ver cómo se usa para un organigrama.

El origen del programa está en proyectos de investigación:

“El programa nació, hace media década, de la necesidad de capturar y representar el conocimiento de un proyecto relacionado con un sistema de diagnóstico de enfermedades del corazón, buscando formas de comunicar más fácilmente la experiencia a colegas y alumnos. Al frente del equipo desarrollador están el Dr. Joseph D. Novak y Dr. Alberto J. Cañas. El primero es un experimentado Investigador Científico que desarrolló los Mapas Conceptuales como ahora se los conoce. Por su parte el Dr. Cañas ha estado comprometido con la utilización de las TIC en educación, especialmente en los niveles de Básica y Media, generando soluciones innovadoras y centrando su interés no sólo en los aspectos teóricos sino en la escalabilidad del uso de los computadores. Sus trabajos de investigación más recientes se ocupan en procesos para modelar y compartir el conocimiento; en sistemas de soporte de ejecución con entrenamiento o capacitación incluidos; y diseño de herramientas colaborativas para la educación y para la investigación.”  (Sánchez Muñoz , Dora Lilia (2012), El uso de mapas conceptuales utilizando Cmap Tools como estrategia para la enseñanza – aprendizaje de equilibrio, página23, en http://www.bdigital.unal.edu.co/9098/)

Desde luego, los mapas conceptuales son aptos para analizar una ley. Vea este ejemplo de la Ley 1065 de 2006, en la que tuve mucho que ver, representada con CmapTools. Fue la ley de administración del dominio .co (ver mi nota “La administración del dominio .co”).

Usted puede elaborar mapas conceptuales bastante complejos, incluso combinando varios mapas conceptuales y agregando diversos recursos multimedia. A esto se le llama modelo de conocimiento (knowledge model). Sobre esto puede leer “Support for Constructing Knowledge Models in CmapTools” en el IHMC.

Para un ejercicio con CmapTools sobre el sistema de gestión de la calidad del sector público en Colombia, ruego primero leer mi nota “La gestión de calidad en el sector público (NTC GP 1000:2009)” y luego visitar el modelo de conocimiento que puede visitar en este enlace.

La negociación de redes esclavas en internet

jueves, agosto 19th, 2010

Internet es un área plagada de riesgos y de nuevas formas criminales. En otra ocasión traté el tema de las redes "zombis", y ahora es preciso hablar de la venta de redes zombis divididas en paquetes más pequeños, es decir, de alquilar grupos de equipos esclavizados. No es ciencia-ficción.

(más…)

ICANN publica nuevo DAG

martes, junio 1st, 2010

ICANN acaba de abrir a comentarios el cuarto borrador del Applicant Guidebook (conocido como DAG), relacionado con el procedimiento de solicitud de nuevos gTLD. En esta versión del DAG se incluyen, entre otros, temas de derecho marcario en su relación con nombres de dominio, relación que cada día se vuelve más relevante (ver por ejemplo la nota " ICANN Approves Trademark Clearinghouse").

Las redes «zombi»

martes, febrero 23rd, 2010

Aunque estamos en la era de la «sociedad de la información», pocas personas son concientes de todos los peligros que rodean la popularidad de internet. A más de los peligros más conocidos de la internet y los niños, existen otros bastante graves y en incremento, como son el ciber-acoso o las redes zombi («botnets»). Este último tiene la particularidad de aprovecharse de la ignorancia casi supina de la mayoría de las personas respecto a la prevención de contaminación en los computadores, lo cual se traduce en reenvío de cadenas  y demás prácticas no solamente molestas, sino que pueden traducirse en favorecer el uso del computador personal o empresarial por terceros.

  (más…)

Clásicos internacionales de jurisprudencia: el pleito por la patente del ENIAC

jueves, enero 7th, 2010

Todo el que conoce algo de historia de la computación tiene noticia de que la primera computadora electrónica fue ENIAC (Electronic Numerical Integrator And Computer), sin embargo, pocos saben que alrededor de ese dato se desarrolló un importante pleito judicial en Estados Unidos, cuyo juicio ha sido calificado como uno de los más largos de la historia (cinco años), y que tuvo como propósito discutir lisa y llanamente la patente del ENIAC y, de contera, definir quién había sido el inventor del primer computador.

(más…)

Primera norma en Colombia sobre intercambio de datos entre computadores

jueves, junio 11th, 2009

El 2 de agosto de 1982 se expidió el DECRETO NUMERO 2328 DE 1982 "por el cual se dictan normas sobre el servicio de transmisión o recepción de información codificada (datos) entre equipos informáticos, es decir, computadores y/o terminales en el territorio nacional" (DIARIO OFICIAL Aí‘O CXIX. N. 36080. 2, SEPTIEMBRE, 1982. PAG. 647).

Es una norma que versa sobre transmisión de datos. La reglamentación concreta del caso se atribuyó a la hoy extinta TELECOM. Veamos solamente dos de los artículos del decreto:

(más…)

La WEB cumple veinte años

viernes, marzo 13th, 2009

El 13 de marzo en el CERN se celebran los 20 años de la WEB. Sugiero leer el especial conmemorativo en la revista Scientific American.

Los hoax (el caso de la antorcha olímpica)

lunes, julio 14th, 2008

Si hay algo que sirve como señal de la ingenuidad en internet, es la existencia de los hoax. No importa que pasen años, no importa cuánto se escriba advirtiendo sobre ellos, en especial respecto de su finalidad usual que es coleccionar direcciones para spamming, siempre hay alguien que le termina enviando a uno un hoax.

Los hoax son mensajes de correo anunciando un nuevo y potente virus que no tiene solución, por lo cual es preciso avisar del mismo con urgencia a todos los conocidos. Lo peor es que cada cierto número de años regresa el mismo hoax porque algún conocido de uno vuelve a enviarlo.

Hace poco me llegó un mensaje con el siguiente texto:

"En los próximos días, debes estar atent@: No abras ningún mensaje con un archivo anexo llamado: Invitación ,
independientemente de quien te lo envíe. Es un virus que abre una antorcha olímpica que quema todo el disco duro C de la computadora. Este virus vendrá de una persona conocida que te
tenia en su lista de direcciones. Es por eso que debes enviar este mensaje a todos tus contactos .

Es preferible recibir 25 veces este correo que recibir el virus y abrirlo. Si recibes el mensaje llamado: Invitación , aunque sea enviado por un amigo, no lo abras y apaga tu maquina inmediatamente . Es el peor virus anunciado por CNN. Un nuevo virus ha sido descubierto recientemente que ha sido clasificado por Microsoft como el virus mas destructivo que haya existido . Este virus fue descubierto ayer por la tarde por Mc Afee. Y no hay arreglo aun para esta clase de virus. Este virus destruye simplemente el Sector Zero del Disco Duro, donde la información vital de su función es guardada."

El mismo mensaje con «ayer en la tarde»¦antorcha»¦ (etc.)» circula por internet desde hace años. Es lo que se llama un «hoax», es decir, una broma. Sobre hoax: http://www.vsantivirus.com/hoaxes.htm , sobre este hoax en particular http://www.vsantivirus.com/hoax-invitation.htm.

Si quieren estar al día en amenazas de virus, revisen periódicamente http://www.symantec.com/es/mx/norton/security_response/index.jsp . Si quieren recibir alertars diarias de Symantec (el fabricante de las diferentes utilidades NORTON) http://nct.symantecstore.com/0184/security_alert.html.

En lugar de poner atención a correos para colectar direcciones para spamming (como ese de la antorcha, por eso pide que se lo envíen a otros) o para perder el tiempo, tengan un buen antivirus al día, además de también actualizar el sistema operativo para no tener «holes» en el sistema.

Y no seamos tan ingenuos por favor.

Software libre, software de código abierto y otras asuntos relacionados

martes, abril 1st, 2008

Tal vez todo el mundo haya escuchado la expresión «software libre», pero de ahí a que exista claridad sobre los alcances del término hay mucho camino.  ¿Qué es el software libre?

» «El «Software Libre´´ es un asunto de libertad, no de precio. Para entender el concepto, debes pensar en «libre´´ como en «libertad de expresión´´, no como en «cerveza gratis´´ [N. del T.: en inglés una misma palabra (free) significa tanto libre como gratis, lo que ha dado lugar a cierta confusión].

«Software Libre´´ se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, cambiar y mejorar el software. De modo más preciso, se refiere a cuatro libertades de los usuarios del software:
La libertad de usar el programa, con cualquier propósito (libertad 0).
La libertad de estudiar cómo funciona el programa, y adaptarlo a tus necesidades (libertad 1). El acceso al código fuente es una condición previa para esto.
La libertad de distribuir copias, con lo que puedes ayudar a tu vecino (libertad 2).
La libertad de mejorar el programa y hacer públicas las mejoras a los demás, de modo que toda la comunidad se beneficie. (libertad 3). El acceso al código fuente es un requisito previo para esto.
Un programa es software libre si los usuarios tienen todas estas libertades. Así pues, deberías tener la libertad de distribuir copias, sea con o sin modificaciones, sea gratis o cobrando una cantidad por la distribución, a cualquiera y a cualquier lugar. El ser libre de hacer esto significa (entre otras cosas) que no tienes que pedir o pagar permisos.» (tomado de http://www.fsfla.org/?q=es/node/18 )

El software libre, que opera bajo una licencia definida mediante consenso, la GNU General Public License , hoy en su versión 3, es producto del desarrollo concertado de comunidades en todo el mundo, con independencia de gobiernos y grandes empresas, así, existen la Free Software Foundation de Norte América (FSF), la Free Software Foundation Europa (FSFE) y la Free Software Foundation India (FSFI).

También debe tenerse en cuenta debe considerarse el llamado «open source» («de código abierto»), dentro del cual existen muchísimas aplicaciones  (al respecto, la Open Source Initiative (OSI) en http://www.opensource.org/), y cuya definición se encuentra en http://www.opensource.org/docs/osd; sus ejemplos más conocidos son Linux, Apache, MySQL, PHP / Perl / Python.   Actualmente, grandes compañías como IBM , se han unido en coalición para promover el uso de software de código abierto, en el llamado Globus Consortium , y las Naciones Unidas tienen su propia iniciativa al respecto (la International Open Source Network) .  Actualmente además, el software libre y el software de código abierto tienden a ser tratados bajo iniciativas conjuntas, denominadas FOSS (Free/Open Source Software).

En términos reales, que algo sea «open source» o «software libre» no significa que sea buen software, o que sea mejor que el software propietario. Tampoco significa que sea gratis o que sea fácil de manejar. Estos dos últimos aspectos son auténticos mitos que deben desmontarse, especialmente porque muchos creen erróneamente que soluciones con herramientas open source pueden implementarse sin personal especializado o sin los mismos problemas del software comercial; sin embargo, tiene todo el sentido del mundo promocionar su uso, puesto que es una verdadera alternativa al software comercial en ciertos casos (como ocurre con OpenOffice, posible reemplazo del Office de Microsoft  en muchas circunstancias). Por algo el mayor número de servidores web en el mundo utilizan Linux como sistema operativo, Apache como software de servidor, MySQL como base de datos y PHP o JAVA como lenguaje de desarrollo (este blog por ejemplo utiliza Linux, Apache, MySQL y PHP); además, existen auténticas plataformas de desarrollo como la asombrosamente potente plataforma Eclipse.  El listado de programas en OpenSource disponibles es absolutamente descomunal, como puede observarse si se echa una ojeada al repositorio SourceForge, el cual tenía -al momento de escribir estas líneas- 173.549   proyectos registrados (la calidad de cada uno de ellos desde luego es otro asunto).

Mejorando nuestro acceso de banda ancha

lunes, marzo 17th, 2008

Uno de las reflexiones que menos hacen los consumidores de banda ancha, es si están recibiendo los kilobytes que les prometieron al pagar, pero tal vez la que aún menos se hacen es si su acceso de banda está optimizado. Para ello, PC Wordd acaba de publicar un artículo muy interesante sobre ambos aspectos (ver  «Six Steps to a Faster Broadband Connection» de Becky Waring, PC World).

Yahoo compartirá uso de supercomputador para investigación

domingo, noviembre 18th, 2007

La computación distribuida, en la cual cabe resaltar el célebre proyecto Beowulf, tiene una historia de décadas  y es solamente uno de los tantos aspectos relevantes de la industria modernamente, lo mismo que la disposición voluntaria a terceros de potencia computacional no utilizada. El caso reciente más notable de aprovechamiento de potencia es sin duda el de Yahoo, el cual ha colocado a disposición de la comunidad científica la capacidad ociosa de su supercomputador en cluster, tal como acaba de anunciar la prestigiosa revista Scientific American en su artículo «Yahoo! Unleashes Teraflops of Processing Power for Research». Todo un ejemplo a seguir por otros.

Los spambots (porqué Arkhaios.com debió cerrar un tiempo)

martes, septiembre 4th, 2007

El pasado 6 de agosto de 2007 en la mañana me encontré con la desagradable sorpresa de que mi website estaba fuera de operación, lo mismo que las cuentas de correo y el dominio adicional que tengo ligado a arkhaios.com. Luego de varias peripecias que no voy a relatar (por ejemplo, que mi dirección electrónica de contacto con mi servicio de hosting fue una de las afectadas, así que tuve que buscar otro modo «oficial» de comunicarme con el servicio), supe que la cuenta se suspendió debido a una sorpresiva sobrecarga de visitas de tal magnitud, que inclusó provocó la caída del servidor. Luego de varias pesquisas, descubrí que el problema habían sido unos «spambots», programas que recorren internet buscando direcciones de correo electrónico para luego hacer spamming, o que simplemente se dedican a bombardear con peticiones determinados sites hasta dejarlos fuera de servicio, como blogs, cual fue mi situación. El resultado en mi caso fue lo que se denomina un ataque un ataque de denegación de servicio (DoS). Yo utilizo WordPress, el mismo  software de blogging en open source de reconocidos sites en internet (como www.realclimate.org, sobre cambio climático). No fue un evento aislado, sucede con alguna frecuencia (ver «Host shut down my WP blog because of spambots» en el site de WordPress). He regresado con el site, e implementé algunas medidas. Esperemos que no se repita el mismo problema, reflejo de la situación de internet, una red sin inocencia (zombies, phishing, etc.; sugiero leer «Combata las tres peores amenazas de la Internet en 2007» en PC World).

Los virus de computador cumplen 25 años

domingo, julio 15th, 2007

La revista Scientific American ha colocado una nota recordando los 25 años de los virus, ese software malicioso que hoy nos obliga a todos a mantenernos alertas en todo momento: «Computer Viruses Are 25 Years Old» . 

¿Qué son «redes neurales»? ¿Qué son «computadores de ADN»?

martes, mayo 22nd, 2007

El avance de la computación no es un asunto sin interés para el sector de las telecomunicaciones, comoquiera que las ciencias de la información y la tecnología de cómputo son bloques básicos para la construcción de la sociedad de la información, que ya tiene características de «continuum». 

En lo que tiene que ver con computación, hay varias tendencias que deben tenerse presentes desde ahora, sin olvidar otras especialmente nuevas, aunque sí novedosas siempre (por ejemplo, la computación por clusters, la cual tiene ya años a cuestas funcionando, como la del proyecto Beowulf, para citar solamente un caso, clic aquí para más información). Quiero referirme aquí solamente a dos tendencias, las redes neurales y la computación basada en ADN.

Aquellos que somos aficionados a la computación y a las matemáticas, sabemos que hace años se habla de algo llamado «redes neurales». Es una forma especial de computación que trata de copiar el comportamiento de las neuronas, incluyendo la forma de «aprendizaje». Sobre esto, el artículo «What is a neural network and how does its operation differ from that of a digital computer? (In other words, is the brain like a computer?) » de la prestigiosa revista científica Scientific American, es un texto excelente para aproximarse a ese tópico, pues se trata de la respuesta de un experto a la pregunta de un lego en la materia.

En cuanto a la computación con ADN, mejor dicho, de computadores de ADN, y que aún tiene mucho camino por recorrer, la propuesta consiste en el uso de ADN que obre directamente sobre células cancerosas, o con otra clase de enfermedad, para corregir la deficiencia. Sobre esto, la nota «DNA Computer Works in Human Cells. Simple biological computer may someday perform complex diagnoses of cancer and other diseases from inside individual cells» de la misma revista.