PROGRAMACION DE PUERTOS
CONFIGURACION DE PUERTOS LOCALES
Elegir y configurar un puerto
El término monitor de impresión se utiliza para describir dos tipos de monitores de impresión: monitor de lenguaje y monitor de puerto. Si la impresora admite impresión bidireccional, una comunicación en dos direcciones entre la impresora y la cola de impresión que se ejecuta en el servidor de impresión, será necesario utilizar un monitor de lenguaje. La cola de impresión podrá tener acceso a la información de estado y configuración procedente de la impresora. El monitor más importante es el monitor de puerto, que controla el puerto de E/S a la impresora. Un puerto de impresora es una interfaz a través de la que una impresora puede comunicarse con el equipo. Puede agregar puertos de impresora mediante el Asistente para agregar impresoras en el momento en que agrega la impresora, en la ficha Puertos de la página de propiedades de la impresora o mediante la página de propiedades del servidor de impresión. Vea Configurar puertos y protocolos si desea información acerca de los procedimientos necesarios para definir los puertos.
El proceso de selección de un puerto y las opciones subsecuentes presentadas dependen del modo en que la impresora esté conectada al servidor o la red, y de qué software (incluidos los protocolos) tenga instalado.
Determinados puertos no se enumerarán en la ficha Puertos a menos que se instale una impresora que requiera uno de ellos. Las impresoras Bus serie universal (USB) e IEEE 1394 son compatibles con Plug and Play; cuando se conecta una impresora al puerto físico correcto (y USB o IEEE 1394) habilitado en el BIOS, se instala automáticamente el monitor de puerto correspondiente. El sistema operativo detecta el dispositivo, muestra su configuración en la pantalla y pide al usuario su confirmación. Es posible que tenga que insertar un CD-ROM que contenga archivos de controlador, como se describe en Agregar un puerto local.
CONFIGURACION DE PUERTOS REMOTOS
Un puerto remoto es un numeración que se le asignan conexiones, estos permiten o deniegan accesos a un puerto, estas aceptan ordenadores de otro servidor.
Los servicios mas usados se llaman puertos bien conocidos como son:
80 para web 21 para ftp 23 para telnet.
Los puertos pueden estar:
Abierto: Acepta conexiones. Hay una aplicación escuchando en este puerto. Esto no quiere decir que se tenga acceso a la aplicación, sólo que hay posibilidad de conectarse.
Cerrado: Se rechaza la conexión. Probablemente no hay aplicación escuchando en este puerto, o no se permite el acceso por alguna razón. Este es el comportamiento normal del sistema operativo.
Bloqueado o Sigiloso: No hay respuesta. Este es el estado ideal para un cliente en Internet, de esta forma ni siquiera se sabe si el ordenador está conectado. Normalmente este comportamiento se debe a un cortafuegos de algún tipo, o a que el ordenador está apagado.
En una URL los puertos se denotan con ':' a continuación del nombre de la máquina, por ejemplo http://www.alerta-antivirus.es:80/index.html quiere decir pedir el documento 'index.html' mediante http conectándose al puerto 80 de este servidor. Como 80 es el como es el puerto por defecto para http se puede omitir.
Escaneo local: Descarga un fichero de 25.5kb que al ser ejecutado, ofrece la posibilidad de escanear todos los puertos.
Devuelve una lista de los puertos en los que haya encontrado alguna incidencia.
Escaneo remoto: Chequea los puertos más usuales y devuelve el resultado del análisis en el propio navegador.
Escanea en remoto el sistema. Realiza la comprobación en dos pasos, primero los puertos más comunes y después los que se sabe que son utilizados por determinados troyanos.
miércoles, 18 de noviembre de 2009
UNIDAD IV
ENLACES DE LA PROGRAMACION ORIENTADA A OBJETOS
ARQUITECTURA DE LOS SIMULADORES
En los últimos años, la implementación de simuladores entrenadores comenzó a tomar gran importancia en áreas como, operadores de centrales industriales, grúas y maquinarias complejas y toda clase de unidades de transporte (aviones, barcos, submarinos, etc.).
La ventaja del uso de estos simuladores es que resulta sumamente costoso y en algunos casos imposible entrenar a los operadores sobre los equipos verdaderos. No obstante, la mayoría de los simuladores que se encuentran hoy en día sólo posibilitan el entrenamiento de a un operario por vez y esto claramente marca una desventaja.
Esto puede verse en el adiestramiento de pilotos de avión los cuales no pueden realizar ejercicios de manera conjunta (por ejemplo: teniendo varios simuladores de avión).
A partir de esta idea surgió la propuesta de diseñar una arquitectura de software que permita
implementar simuladores capaces de entrenar de manera simultánea a varios operadores monitoreados por un instructor.
El problema tiene similitudes con los puestos múltiples de los
juegos en red, sin embargo no están pensados como herramientas de entrenamiento con la inclusión de un puesto para el instructor, donde el mismo lleve la administración de toda la simulación e incluso pueda tomar el control de cualquier puesto en caso de ser necesario.
Un ejemplo de esto último puede ser el entrenamiento de varios pilotos de aviones comerciales de manera simultánea. Por un lado, en cada puesto de entrenamiento se representará una verdadera cabina de avión, sobre la cual el piloto va a realizar un plan de vuelo específico (una simulación particular por cada puesto de entrenamiento). Por otro lado, el puesto de instructor tendrá todos los medios necesarios para llevar el control de toda la simulación (una simulación general que involucra a todos los puestos). El mismo podrá además seleccionar un escenario donde volarán los aviones, configurar los distintos tipos de aviones (uno por cada puesto de entrenamiento), monitorear el desempeño de los pilotos, y generar eventos especiales tales como cambios en los factores climáticos, inhabilitaciones para aterrizar, etc.
Obtener “a la primera” una correcta especificación de la arquitectura no es una tarea fácil, sobre todo si debe satisfacer requerimientos tales como rendimiento y fiabilidad. En general, resulta dificultoso mejorar el grado de satisfacción de un requisito sin perjudicar a otro, ni modificar la funcionalidad del sistema.
Las partes que componen la arquitectura son:
• Cliente: es la interfaz que se encarga de ocultar la complejidad del sistema al usuario. Las principales funcionalidades que tendrán asociados son:
• Capturas de información: capturar el tráfico de la red generada por otras maquinas.
• Generación de información: generar parte del tráfico.
• Consumo de información: recibir cierto tipo de tráfico.
• Repartidor (Dispatch Server): es el elemento que coordina a todos los clientes, y que además,
captura, procesa y envía información al sistema.
ARQUITECTURA DISTRIBUIDA
Surge con los nuevos modelos organizativos, en los que la empresa se divide en unidades más o menos autónomas que establecen relaciones más definidas y directas entre sí.
Además de que soluciona muchos de los problemas de la arquitectura cliente/servidor, separa la lógica del negocio de la interfaz del usuario, centraliza la lógica del negocio en el servidor de aplicaciones, permitiendo la reducción de procesamiento en el cliente y control acceso a la información, permite a los desarrolladores organizar el código en tres niveles y extendiéndolo a n niveles,
Aparecen entonces entornos informáticos departamentales adecuados a las necesidades de cada departamento en concreto.
Características funcionales
•Cada usuario trabaja con su terminal local inteligente, con lo que obtiene mejores tiempo de respuesta.
•Los recursos necesarios que no estén disponibles sobre el terminal local (ordenador personal o estación de trabajo) pueden tomarse del ordenador central a través de la red de telecomunicaciones.
Características físicas
•Sistemas informáticos distribuidos en los que los ordenadores a través de la organización están conectados por medio de una red de telecomunicaciones.
• Cada ordenador sobre la red tiene capacidad de tratamiento autónomo que permite servir a las necesidades de los usuarios locales.
• También proporciona acceso a otros elementos de la red o a servidores centrales.
• Toma importancia la red de comunicación de datos.
Características lógicas
• Cada tarea individual puede ser analizada para determinar si puede distribuirse o no. En general, las tareas más complejas o de carácter estratégico para la organización se mantienen en el ordenador central. Las tareas de complejidad media o específicas para un determinado grupo de usuarios se distribuyen entre las máquinas locales de ese grupo.
• La plataforma física seleccionada puede ajustarse a las necesidades del grupo de usuarios, con lo que surgen los ordenadores especializados para determinados tipos de tareas.
Ventajas
• Funcionamiento autónomo de los sistemas locales, lo que origina un buen tiempo de respuesta.
•Los sistemas de información llegan a todos los departamentos de la empresa.
•Abre posibilidades de trabajo mucho más flexibles y potentes.
•Clientes delgados
•Reutilización del código.
•Encapsulación de la lógica
•Mejor performance
•Escalabilidad
•Reutilización de componentes existentes.
•Extensión para web.
Desventajas
•Cambio de hábitos en la programación
•Mayor curva de aprendizaje
•Tiempo de diseño y desarrollo mayor
•Puntos de fallas es mayor
Inconvenientes
•Requiere un intenso flujo de informaciones (muchas veces no útiles, como pantallas y datos incorrectos) dentro de la red, lo que puede elevar los costes de comunicaciones.
•Supone una mayor complejidad.
•Si los sistemas no están integrados, pueden producirse problemas de inconsistencia de datos.
COMUNICACION DE UN SIMULADOR
Mientras que una red puede parecer una sola entidad a sus usuarios, la realidad es una colección compleja de piezas correlacionadas. La visión tradicional de las redes es como una serie de capas, con cada capa agregando nuevas funciones y capacidades a las capas debajo de ella. A modo de explicación resumida, la red se considera que tiene tres capas.
• La capa física: Consiste en los cables, los conectores, las tarjetas, etc. Esta capa es la representación física de datos mientras se transmite.
• La capa de transmisión de datos amplía la capacidad de la capa física de
transmitir datos en la capacidad de comunicarse entre dos o más ordenadores.
Para hacer esto, la capa de transmisión de datos debe realizar dos funciones. La
primera es controlar quién puede transmitir y cuando.
La segunda función es especificar el formato de los datos transmitidos.
• La capa del protocolo amplía las capacidades de la comunicación de las capas
de transmisión de datos permitiendo el enlace conjunto de redes múltiples, incluso
siendo ésas de diversos tipos. Los protocolos también proporcionan comúnmente un número de instalaciones de comunicación de alto nivel, que van más allá de enviar simple de mensajes.
• Ancho de banda: o capacidad de transmitir medido normalmente en bit por
segundo, bps. Las líneas serie oscilan entre los 57Kbps y los mas modernos
250Kbps. Las modernas líneas USB alcanzan 1,5 Mbps, aunque tienen frecuencia
de reloj de 12 Mhz. Las Token-ring unos 4,1 Mbps y las Ethernet llegan a 1000
Mbps.
• Coste: aunque no es un factor decisivo por el abaratamiento generalizado del
hardware.
• Distancias máximas de conexión: este factor puede ser importante en
determinados tipos de arquitectura muy distribuida. La sensibilidad al ruido de la
capa física suele ser el que determina estas distancias.
• Determinación del tiempo de transmisión: en algunas combinaciones como
Ethernet no se puede determinar el tiempo en que se va a recibir el siguiente
mensaje por la aleatoriedad del propio protocolo. Las de tipo Token-ring son
deterministas en este aspecto.
ARQUITECTURA DE LOS SIMULADORES
En los últimos años, la implementación de simuladores entrenadores comenzó a tomar gran importancia en áreas como, operadores de centrales industriales, grúas y maquinarias complejas y toda clase de unidades de transporte (aviones, barcos, submarinos, etc.).
La ventaja del uso de estos simuladores es que resulta sumamente costoso y en algunos casos imposible entrenar a los operadores sobre los equipos verdaderos. No obstante, la mayoría de los simuladores que se encuentran hoy en día sólo posibilitan el entrenamiento de a un operario por vez y esto claramente marca una desventaja.
Esto puede verse en el adiestramiento de pilotos de avión los cuales no pueden realizar ejercicios de manera conjunta (por ejemplo: teniendo varios simuladores de avión).
A partir de esta idea surgió la propuesta de diseñar una arquitectura de software que permita
implementar simuladores capaces de entrenar de manera simultánea a varios operadores monitoreados por un instructor.
El problema tiene similitudes con los puestos múltiples de los
juegos en red, sin embargo no están pensados como herramientas de entrenamiento con la inclusión de un puesto para el instructor, donde el mismo lleve la administración de toda la simulación e incluso pueda tomar el control de cualquier puesto en caso de ser necesario.
Un ejemplo de esto último puede ser el entrenamiento de varios pilotos de aviones comerciales de manera simultánea. Por un lado, en cada puesto de entrenamiento se representará una verdadera cabina de avión, sobre la cual el piloto va a realizar un plan de vuelo específico (una simulación particular por cada puesto de entrenamiento). Por otro lado, el puesto de instructor tendrá todos los medios necesarios para llevar el control de toda la simulación (una simulación general que involucra a todos los puestos). El mismo podrá además seleccionar un escenario donde volarán los aviones, configurar los distintos tipos de aviones (uno por cada puesto de entrenamiento), monitorear el desempeño de los pilotos, y generar eventos especiales tales como cambios en los factores climáticos, inhabilitaciones para aterrizar, etc.
Obtener “a la primera” una correcta especificación de la arquitectura no es una tarea fácil, sobre todo si debe satisfacer requerimientos tales como rendimiento y fiabilidad. En general, resulta dificultoso mejorar el grado de satisfacción de un requisito sin perjudicar a otro, ni modificar la funcionalidad del sistema.
Las partes que componen la arquitectura son:
• Cliente: es la interfaz que se encarga de ocultar la complejidad del sistema al usuario. Las principales funcionalidades que tendrán asociados son:
• Capturas de información: capturar el tráfico de la red generada por otras maquinas.
• Generación de información: generar parte del tráfico.
• Consumo de información: recibir cierto tipo de tráfico.
• Repartidor (Dispatch Server): es el elemento que coordina a todos los clientes, y que además,
captura, procesa y envía información al sistema.
ARQUITECTURA DISTRIBUIDA
Surge con los nuevos modelos organizativos, en los que la empresa se divide en unidades más o menos autónomas que establecen relaciones más definidas y directas entre sí.
Además de que soluciona muchos de los problemas de la arquitectura cliente/servidor, separa la lógica del negocio de la interfaz del usuario, centraliza la lógica del negocio en el servidor de aplicaciones, permitiendo la reducción de procesamiento en el cliente y control acceso a la información, permite a los desarrolladores organizar el código en tres niveles y extendiéndolo a n niveles,
Aparecen entonces entornos informáticos departamentales adecuados a las necesidades de cada departamento en concreto.
Características funcionales
•Cada usuario trabaja con su terminal local inteligente, con lo que obtiene mejores tiempo de respuesta.
•Los recursos necesarios que no estén disponibles sobre el terminal local (ordenador personal o estación de trabajo) pueden tomarse del ordenador central a través de la red de telecomunicaciones.
Características físicas
•Sistemas informáticos distribuidos en los que los ordenadores a través de la organización están conectados por medio de una red de telecomunicaciones.
• Cada ordenador sobre la red tiene capacidad de tratamiento autónomo que permite servir a las necesidades de los usuarios locales.
• También proporciona acceso a otros elementos de la red o a servidores centrales.
• Toma importancia la red de comunicación de datos.
Características lógicas
• Cada tarea individual puede ser analizada para determinar si puede distribuirse o no. En general, las tareas más complejas o de carácter estratégico para la organización se mantienen en el ordenador central. Las tareas de complejidad media o específicas para un determinado grupo de usuarios se distribuyen entre las máquinas locales de ese grupo.
• La plataforma física seleccionada puede ajustarse a las necesidades del grupo de usuarios, con lo que surgen los ordenadores especializados para determinados tipos de tareas.
Ventajas
• Funcionamiento autónomo de los sistemas locales, lo que origina un buen tiempo de respuesta.
•Los sistemas de información llegan a todos los departamentos de la empresa.
•Abre posibilidades de trabajo mucho más flexibles y potentes.
•Clientes delgados
•Reutilización del código.
•Encapsulación de la lógica
•Mejor performance
•Escalabilidad
•Reutilización de componentes existentes.
•Extensión para web.
Desventajas
•Cambio de hábitos en la programación
•Mayor curva de aprendizaje
•Tiempo de diseño y desarrollo mayor
•Puntos de fallas es mayor
Inconvenientes
•Requiere un intenso flujo de informaciones (muchas veces no útiles, como pantallas y datos incorrectos) dentro de la red, lo que puede elevar los costes de comunicaciones.
•Supone una mayor complejidad.
•Si los sistemas no están integrados, pueden producirse problemas de inconsistencia de datos.
COMUNICACION DE UN SIMULADOR
Mientras que una red puede parecer una sola entidad a sus usuarios, la realidad es una colección compleja de piezas correlacionadas. La visión tradicional de las redes es como una serie de capas, con cada capa agregando nuevas funciones y capacidades a las capas debajo de ella. A modo de explicación resumida, la red se considera que tiene tres capas.
• La capa física: Consiste en los cables, los conectores, las tarjetas, etc. Esta capa es la representación física de datos mientras se transmite.
• La capa de transmisión de datos amplía la capacidad de la capa física de
transmitir datos en la capacidad de comunicarse entre dos o más ordenadores.
Para hacer esto, la capa de transmisión de datos debe realizar dos funciones. La
primera es controlar quién puede transmitir y cuando.
La segunda función es especificar el formato de los datos transmitidos.
• La capa del protocolo amplía las capacidades de la comunicación de las capas
de transmisión de datos permitiendo el enlace conjunto de redes múltiples, incluso
siendo ésas de diversos tipos. Los protocolos también proporcionan comúnmente un número de instalaciones de comunicación de alto nivel, que van más allá de enviar simple de mensajes.
• Ancho de banda: o capacidad de transmitir medido normalmente en bit por
segundo, bps. Las líneas serie oscilan entre los 57Kbps y los mas modernos
250Kbps. Las modernas líneas USB alcanzan 1,5 Mbps, aunque tienen frecuencia
de reloj de 12 Mhz. Las Token-ring unos 4,1 Mbps y las Ethernet llegan a 1000
Mbps.
• Coste: aunque no es un factor decisivo por el abaratamiento generalizado del
hardware.
• Distancias máximas de conexión: este factor puede ser importante en
determinados tipos de arquitectura muy distribuida. La sensibilidad al ruido de la
capa física suele ser el que determina estas distancias.
• Determinación del tiempo de transmisión: en algunas combinaciones como
Ethernet no se puede determinar el tiempo en que se va a recibir el siguiente
mensaje por la aleatoriedad del propio protocolo. Las de tipo Token-ring son
deterministas en este aspecto.
Suscribirse a:
Comentarios (Atom)