Thursday, October 19, 2006

1 er Parcial Lab. Sistema Operativo
  1. Agregar un usuario.
  • desde root, adduser
  • ingresa el nombre del usuario
  • ingresa clave

2. Crear una carpeta dentro del homedirectory del usuario Nuevo con el usuario root

  • desde root, cd /
  • cd home
  • cd nombre del usuario
  • mkdir nombre del directorio

3. Crear un archivo con el contenido de todos los archivos en el disco que empiecen con{c,a,m} y posean una letra {o,i,e} en cualquier posición.

  • ls -l [cam]**[oei]* >ejercicio3.txt desde el home
  • despues se usa mv ejercicio3.txt /home/nombre del usuario/nombre directorio

4. Guardar en un archivo el consumo de memoria de los últimos 5 minutos de su equipo.

  • watch -n 300 top > ejercicio4.txt desde el nombre del usuario

5. Realizar un backup del directorio en cuestión.

  • desde home mkdir backup
  • despues cp -r home/nombreusuario/nombredirectorio backup/

6. Crear una entrada en el sistema para poder repetir este backup todos los días a la misma hora.

  • crontab -e
  • dentro del editor;
  • * * 30 * * root cp -r /home/user/directorio backup/

7. Liste recursivamente todos los archivos del disco y guárdelos en un archivo/

  • ls -R >ejercicio7.txt

8. Cancele el proceso anterior e indique como lo realizo.

  • kill PID

9. Crear un archivo nuevo a partir del primero creado que contenga solo las primeras 3 líneas este archivo.

  • head -3 ejercicio3.txt > ejercicio9.txt

10. Realice este mismo caso pero esta vez con las ultimas 3 líneas.

  • tail -3 ejercicio3.txt > ejercicio10.txt

Monday, October 09, 2006

CAPÍTULO 4


EJERCICIO 4.1

Sea un sistema de paginación con un tamaño de página P. Especifique cuál sería la fórmula matemática que determina la dirección de memoria física F a partir de la dirección virtual D, siendo la función MARCO (x) una que devuelve el numero de marco almacenado en la entrada X de la tabla de páginas.

F = NM(F) + Db(F)

EJERCICIO 4.2

¿ Es siempre el algoritmo de reemplazo LRU mejor que el FIFO? En caso afirmativo, plantee una demostración. En caso negativo, proponga un contraejemplo.

Generalmente, si es mejor el algoritmo LRU que el FIFO. Sin embargo y a pesar de que el LRU no tiene la anomalía de Belady y el FIFO si, este puede presentar un comportamiento mejor en códigos, en los cuales, se referencie con no mucha frecuencia a las mismas páginas de memoria. De este modo, se evitaría que las páginas que se sustituyen en memoria se referenciaran en un corto espacio de tiempo, con lo cual, se minimizarían los fallos de página, obteniendo así un buen rendimiento, posiblemente superior al LRU.


EJERCICIO 4.4

El lenguaje C define el calificador volatile aplicable a variables. La misión de este calificador es evitar problemas de coherencia en aquellas variables que se acceden tanto desde el flujo de ejecución normal como desde flujos asíncronos, como por ejemplo una rutina asociada a una señal POSIX. Analice que tipo de problemas podrían aparecer y proponga un método para resolver los problemas identificados para las variables etiquetadas con este calificador.

La palabra volatile indica que un determinado objeto de datos puede ser modificado por medios externos al programa en que aparece. Debido a esto, podría surgir el problema de que un compilador tratara de alterar el valor de una variable, al comprobar que ha sido utilizada en dos lugares diferentes. Sin embargo, y a través del empleo de volatile, el compilador se daría cuenta que el programa no ha hecho nada por modificar la variable en medio de las dos utilizaciones, es decir, se daría cuenta de que la segunda utilización no corresponde al programa, con lo que, descartaría la posibilidad de tratar de actualizar con el valor de la segunda utilización.


EJERCICIO 4.5

Algunas MMU no proporcionan un BIT de página accedida. Proponga una manera de simularlo. Una pista : se pueden forzar fallos de página para detectar accesos a una página.

Modificando los permisos de lectura de una página.


EJERCICIO 4.6

Algunas MMU no proporcionan un BIT de página modificada. Proponga una manera de simularlo.

se modifican los permisos de escitura.

EJERCICIO 4.9

¿ Por qué una cache que se accede con direcciones virtuales puede producir incoherencias y requiere que el sistema operativo la invalide en cada cambio de proceso y, en cambio, una que se accede con direcciones físicas no lo requiere?

Porqué las direcciones virtuales no corresponden con el mismo dato para procesos distintos, mientras que las direcciones físicas sí.


EJERCICIO 4.10

¿ Por qué una cache que se accede con direcciones virtuales permite que el acceso a la TLB y a la cache se hagan en paralelo y, en cambio, una que se accede con direcciones físicas no lo permite? ¿ Por qué es conveniente que las caches que se acceden con direcciones físicas tengan el mismo tamaño que la página?

Porque en el primer caso ambas direcciones se corresponden y se pueden comparar, mientras que en el segundo caso no podemos comparar dirección física con virtual.

Para poder anular la caché más fácilmente cuando haga cambios en la memoria y así evitamos posibles inconsistencias.


EJERCICIO 4.11

La secuencia que se utiliza típicamente como ejemplo de la anomalía de Belady es la siguiente:

1 2 3 4 1 2 5 1 2 3 4 5

Analice cuántos fallos de página se producen al usar el algoritmo FIFO teniendo 3 marcos y cuántos con 4 marcos. Compárelo con el algoritmo LRU. ¿Qué caracteriza a los algoritmos de reemplazo de pila?

Con 3 marcos y el algoritmo FIFO se tendrían 5 fallos de página, distribuidos en dos fallos para la página 4 y un fallo para las páginas 1, 3 y 5.

Con 4 marcos y el algoritmo FIFO se tendrían 6 fallos de página, distribuidos en dos fallos para la página 5 y un fallo para el resto de las páginas.

Con 3 marcos y el algoritmo LRU se tendrían 7 fallos de página, distribuidos en dos fallos para la página 4 y un fallo para las páginas 1,2, 3 y 5.

Con 4 marcos y el algoritmo LRU se tendrían 2 fallos de página, distribuidos en un fallo para la página 4 y un fallo para las páginas 5.

Como se puede observar el número de fallos de página es mucho inferior en LRU a medida que aumentamos el número de marcos. Sin embargo, este cambio no es tan acusado en el algoritmo FIFO que se mantiene más constante.

Esto se debe a que el algoritmo LRU no sufre la anomalía de Belady, ya que, pertenece a la familia de los algoritmos de pila. La característica principal de estos algoritmos es que las páginas residentes en memoria para un sistema con n marcos de página son siempre un subconjunto de las que habría en un subconjunto de n+1 marcos. Esta propiedad es la que asegura que estos algoritmos no sufran la anomalía de Belady.


EJERCICIO 4.13

Sea un sistema de memoria virtual sin buffering de páginas. Analice la evolución de una página en este sistema dependiendo de la región a la que pertenece. Estudie los siguientes tipos:

- Página de código.

Se lee del fichero de programa original y no se modifica, pudiéndose así, expulsar y volver a leer del fichero.

- Página de datos con valor inicial.

Se lee del fichero y una vez es modificado, se expulsa al swap y se lee de ahí.

- Página de datos sin valor inicial.

No se lee del fichero y al modificarlo se expulsa y se lee del swap.

- Página de un archivo proyectado.

Nunca va al swap y siempre se lee, se escribe y se expulsa del archivo.

- Página de una zona de memoria compartida.

Depende de los procesos. Se libera al liberarse todos los procesos yendo al swap.


EJERCICIO 4.14

Resuelva el ejercicio anterior suponiendo que hay buffering de páginas.

La diferencia cuando hay buffering, es que el sistema operativo reserva una serie de marcos libres en memoria y cuando se produce un fallo de página, asigna un marco libre. Hay un umbral de marcos libres, que cuando es rebasado el SSOO comienza a aplicar el algoritmo de reemplazo hasta que se llega a sobrepasar el umbral de nuevo.

EJERCICIO 4.17

Como se comento en la explicación del algoritmo de reemplazo LRU, el tiempo que se debe usar para seleccionar la página menos recientemente usada es el tiempo lógico de cada proceso y no el tiempo real. Modifique la implementación basada en contadores propuesta en el texto para que tenga en cuenta esta consideración.

Lo único que hay que hacer es usar un contador monótono creciente para dar valor al campo LRU de cada página. Con este contador, que se inicia a 1, cada vez que se toca una página se incrementa en 1 el contador. De esta forma, las páginas más recientes, tienen el contador más alto.

Este contador mide el “tiempo lógico” de un proceso en cuanto a accesos a páginas se refiere y lo relaciona con el tiempo global lógico de todos los procesos del sistema.

EJERCICIO 4.18

Un algoritmo de reemplazo no descrito en el texto es el MFU (menos frecuentemente utilizada). Este algoritmo elige para el reemplazo aquella página que se haya utilizado menos frecuentemente. Analice cuál son los puntos más fuertes y débiles de este algoritmo y plantee una implementación de este algoritmo.

La principal ventaja del algoritmo MFU es que tiene un rendimiento similar a LRU, con la ventaja de que MFU a diferencia de LRU se implementa en software, con lo cual, no necesita que la máquina en la que este implementado posea un hardware específico.

El principal problema del algoritmo MFU es que nunca olvida. Esto en determinadas circunstancias podría llevar a que el sistema operativo elimine las páginas útiles en vez de las que ya no se utilizan. La razón es que si una página se usó muy frecuentemente en el pasado, tendrá un valor de frecuencia alto y no será elegida como víctima, aunque nunca más se vuelva a usar.

Una posible implementación de MFU es usando un contador de valor inicial 0 (a nivel software) asociado a cada página e incrementarlo cada vez que se accede a la página. Para resolver el problema anterior, se podría intentar hacer una mezcla de LRU y MFU usando dos contadores.


EJERCICIO 4.21

En la descripción de la técnica COW se explicó que para implementar esta técnica generalmente se pone la página con una protección de solo lectura. Analice como sería la rutina de tratamiento de la excepción que se produce al escribir en una página de este tipo para implementar la técnica COW.

La excepción que llamaría a la rutina de tratamiento vendría producida por un proceso , que trata de escribir en una región compartida, cuando el SSOO utiliza la técnica COW.

La rutina tendría los siguientes pasos:

- El SO crea una copia privada de la página compartida para el proceso que provocó la excepción.

- El SO decrementa el contador de procesos para la región compartida (ya que el proceso de la excepción , ahora utilizará su copia privada, y por tanto, la región compartida de antes será utilizada por un proceso menos).

- Si el contador llega a 1, se quita la marca de COW, ya que, la página ya no tendrá duplicados.


EJERCICIO 4.26

¿Por qué es necesario mantener al menos una página inválida entre la región de pila y la región que esta situada justo encima?

Para que haya una excepción, caso de que, se salga de la pila antes de entrar en otra región.


EJERCICIO 4.27

Analice qué puede ocurrir en un sistema que usa paginación por demanda si se recompila un programa mientras se esta ejecutando. Proponga soluciones a los problemas que pueden surgir en esta situación.

Dado que se usa el fichero para cargar en memoria, si se modifica, se mezclarán páginas del fichero antiguo con páginas del fichero nuevo y habrá posibles inconsistencias.


EJERCICIO 4.28

En POSIX se define el servicio msync que permite forzar la escritura inmediata de una región al soporte. ¿ En que situaciones puede ser interesante usar esta función?

msync vuelca a disco los cambios hechos en la copia en memoria de un fichero que ha sido mapeado en memoria empleando mmap. Sin la utilización de esta llamada no está garantizado que los cambios se escriban de vuelta

antes de que se llame a munmap. Esto puede ser muy interesante en algunos casos como por ejemplo cuando se cae inesperádamente el sistema, permitiendo tener una rutina que permita a través del servicio msync, guardar todo lo proyectado en memoria, lo más actualizado posible.


EJERCICIO 4.29

Cuando se produce un fallo en una página que pertenece a una región compartida, se trae a memoria secundaria la página y se actualiza la entrada de la tabla de páginas del proceso que causo el fallo. ¿ Cómo se enteran el resto de los procesos que comparten la página de que esta ya esta en memoria?

Se enteran porque al traer a memoria la página, el SO tiene almacenada información de todos los procesos que acceden a esta página compartida y en ese caso el SO se encarga de actualizar el bit de presente/ausente en dichos procesos.


EJERCICIO 4.30

El mecanismo de buffering permite recuperar una página que esta en la lista de libres ya que todavía no se ha reutilizado el marco que la contiene. ¿ Cómo se puede implementar esta búsqueda en la lista para que se haga de forma eficiente ?

Usando la tabla hash con direcciones físicas.


EJERCICIO 4.31

Analice que situaciones se pueden producir en el tratamiento de un fallo de TLB en un sistema que tiene una gestión software de la TLB.

En un sistema cuya TLB va gestionada por Software, y tras producirse un fallo de página ocurre lo siguiente:

- La MMU busca la traducción en la TLB. Si la encuentra la inserta en memoria principal y listo. Pero si no la encontrara se produciría el fallo de página y se activa el SSOO.

- El S. operativo busca en la tabla de páginas “a mano” e inserta en la TLB la traducción, desde donde la MMU, ya sabe introducirla en memoria principal.


EJERCICIO 4.32

Con el uso de la técnica de proyección de archivos se produce una cierta unificación entre el sistema de archivos y la gestión de memoria. Puesto que, como se verá en el capítulo dedicado a los archivos, el sistema de archivos usa una cache de bloques al disco, analice que tipo de incoherencias pueden producirse si se accede a un archivo usando la proyección y las primitivas convencionales del sistema de archivos.

Si se accede a un fichero con proyección y con operaciones de lectura/ escritura, en ocasiones, ocurre que los bloques de datos se almacenan en lugares distintos y se pueden crear incoherencias.

Sunday, October 08, 2006

CAPÍTULO 3

EJERCICIO 3.1

¿Cuál de los siguientes mecanismos hardware no es un requisito para construir un sistema operativo multiprogramado con protección entre usuarios? Razone su respuesta.

A.- Memoria virtual.

B.- Protección de memoria.

C.- Instrucciones de E/S que sólo pueden ejecutarse en modo kernel.
D.- 2 modos de operación: kernel y usuario.

A) Memoria Virtual. De las opciones dadas esta es la unica que no es necesaria para la proteccion entre usuario en un sistema operativo multiprogramado. Las otras opciones sin embargo son necesarias ya sea para la seguridad entre usuarios, como en los casos de los 2 modos de operacion y en la proteccion de memoria o para el aprovecho maximo del tiempo de ejecucion, como es en el caso de las instrucciones de E/S que solo pueden ejecutarse en modo Kernel.


EJERCICIO 3.2

¿Puede degradarse el rendimiento de la utilización del procesador en un sistema sin memoria virtual siempre que aumenta el grado de multiprogramación?

No es motivo de degradación del rendimiento aumentar el índice de multiprogramación, ya que no hay paginación ni ninguno de los efectos que empiezan a ocurrir cuando hay memoria virtual y un conjunto de trabajo insuficiente. Por tanto, el aprovechamiento del procesador aumentará a medida que lo haga también el nivel de multiprogramación, ya que nuestra única limitación viene dada por el tamaño de la memoria principal y de los procesos.


EJERCICIO 3.3

Indique cuál de estas operaciones no es ejecutada por el activador:
A.- Restaurar los registros de usuario con los valores almacenados en la tabla del proceso.
B.- Restaurar el contador de programa.
C.- Restaurar el puntero que apunta a la tabla de páginas del proceso.
D.- Restaurar la imagen de memoria de un proceso.


D) restaurar la imagen de memoria del proceso, no se lleva a cabo en la activación. La imagen se restaura a medida que se producen fallos de página y estas se van trayendo a memoria.


EJERCICIO 3.4

¿Siempre se produce un cambio de contexto cuando se produce un cambio de proceso? Razone su respuesta.

En procesos independientes SI. En procesos ligeros NO. Procesos ligeros son aquellos cuya ejecucion se puede lanzar en paralelo con otros.


EJERCICIO 3.5

¿Cuál es la información que no comparten los procesos ligeros de un mismo proceso?

Información referente al espacio de pila, a la identificación del proceso, a las señales y una pequeña información de entorno.


EJERCICIO 3.6

¿Puede producirse un cambio de contexto en un sistema con un planificador basado en el algoritmo primero el trabajo más corto además de cuando se bloquea o se termina el proceso? Razone su respuesta.

No, ya que si no tenemos en cuenta las posibilidades de bloqueo y terminación del proceso, sólo nos quedaría la posibilidad de la expulsión, pero en esta política de planificación, esa operación queda descartada.


EJERCICIO 3.7

¿Qué algoritmo de planificación será más conveniente para optimizar el rendimiento de la UCP en un sistema que sólo tiene procesos en los cuales no hay entrada/salida?

FIFO, porque en este no tenemos que cambiar los procesos que se
ejecutan, el proceso se queda hasta que termina su ejecución, a no ser que los procesos se bloqueen de forma voluntaria.


EJERCICIO 3.8

¿Cuál de las siguientes políticas de planificación es más adecuada para un sistema de tiempo compartido?

A.- Primero el trabajo más corto.

B.- Round-Robin.

C.- Prioridades.

D.- FIFO.

La política de Round Robin. Este algoritmo es especialmente adecuado para los sistemas de tiempo compartido por que se basa en el concepto de rodaja de tiempo (slot) y reparte su atención entre todos los procesos, lo que al final viene a significar entre todos los usuarios. Los procesos están organizados en forma de cola circular y cuando han consumido su rodaja de tiempo son expulsados y pasan a ocupar el último lugar en la cola, con lo que se ejecutan otro proceso. Con este mecanismo, los usuarios tienen la sensación de avance global y continuado, lo que no está garantizado con los otros algoritmos descritos.


EJERCICIO 3.9

¿Cuál es el criterio de planificación más relevante en un sistema de tiempo compartido, el tiempo de respuesta o la optimización en el uso del procesador? Razone su respuesta.

El tiempo de respuesta de los procesos que ejecuten cada uno de los usuarios, debe ser lo suficientemente rápido para evitar esperas por parte de los usuarios, ya que estos piensan que estan conectados directamente a la maquina y no a una terminal.


EJERCICIO 3.10

¿Cuál de las siguientes transiciones entre los estados de un proceso no se puede producir en un sistema con un algoritmo de planificación no expulsivo?

A.- Bloqueado a listo.

B.- Ejecutando a listo.

C.- Ejecutando a bloqueado.

D.- Listo a ejecutando.

B) ejecutando a listo. Ya que no podrá pararse la ejecución sin pasar antes por bloqueado, que será solicitado por el sistema operativo. Por ejemplo no habría problema alguno de bloqueado a listo, de ejecutando a bloqueado(donde será el sistema operativo quien solicite ese bloqueo),o de listo a ejecutando.


EJERCICIO 3.11

Sea un sistema que usa un algoritmo de planificación de procesos round-robin con una rodaja de tiempo de 100 ms. En este sistema ejecutan dos procesos. El primero no realiza operaciones de E/S y el segundo solicita una operación de E/S cada 50 ms. ¿Cuál será el porcentaje de uso de la UCP?

El porcentaje de uso de la UCP será el 100% ya que cuando no se está ejecutando uno de los procesos se está ejecutando el otro.


EJERCICIO 3.12

Considere el siguiente conjunto de procesos planificados con un algoritmo round-robin con 1 u.t. de rodaja, ¿Cuánto tardan en acabar todos ellos?
Proceso. Llegada. Duración
P1 2 8
P2 0 5
P3 1 4
P4 3 3


Supondré que al final de cada unidad de tiempo, primero se encola el proceso que ha acabado de ejecutar y después se encola el proceso que llegue en ese instante. Tienen que transcurrir 12 unidades de tiempo para que el proceso P2 finalice. Tienen que transcurrir 14 unidades de tiempo para que P3 finalice. Tienen que transcurrir 15 unidades de tiempo para que P3 finalice. Para que finalice P1 tienen que transcurrir 20 unidades de tiempo.


EJERCICIO 3.13

En un sistema que usa un algoritmo de planificación de procesos round-robin, ¿cuántos procesos como máximo pueden cambiar de estado cuando se produce una interrupción del disco que indica que se ha terminado una operación sobre el mismo?

puede ocurrir que un proceso que estaba bloqueado, al recibir la señal causada por la interrupción pase a listo, colocándose en la última posición de la cola de control de procesos. Si además suponemos que en el instante en que ese proceso pasa de bloqueado a listo el que está en la cabecera ha consumido su rodaja de tiempo y pasa a ejecutarse el que estaba a continuación, obtenemos que han cambiado de estado 3 procesos, siendo este el número máximo de procesos que pueden cambiar de estado cuando se produce una interrupción de disco que indica que se ha terminado una operación sobre el mismo bajo un algoritmo de planificación Round-Robin.


EJERCICIO 3.14

Se tienen los siguientes trabajos a ejecutar:
trabajos Unidades de tiempo Prioridad
1 8 2
2 5 4
3 2 2
4 7 3

Los trabajos llegan en el orden 1, 2, 3 y 4 y la prioridad más alta es la de valor 1, se pide:
a) Escribir un diagrama que ilustre la ejecución de estos trabajos usando:
1. Planificación de prioridades no expulsiva
2. Planificación cíclica con una rodaja de tiempo de 2
3. FIFO
b) Indicar cuál es el algoritmo de planificación con menor tiempo medio de espera

b) el cíclico, ya que un proceso no tiene que esperar a que termine de ejecutar el anterior.


EJERCICIO 3.15

¿Qué sucede cuando un proceso recibe una señal? ¿y cuando recibe una excepción?

Se puede decir que una señal es una interrupción al proceso. El proceso se comporta de la siguiente forma cuando recibe una señal:
1.
El proceso detiene su ejecución que está ejecutando en la instrucción máquina.
2.
Ejecuta una rutina de tratamiento de la señal (el código forma parte del proceso).
3.
Cuando acaba la rutina de tratamiento, continua con la ejecución del proceso de la instrucción máquina.

Estas señales pueden proceder de un proceso o del sistema operativo.

Cuando ocurre una excepción, el sistema operativo toma el control e indica la excepción al proceso. Si el proceso había capturado la excepción. La ejecución salta al código de la rutina de tratamiento de excepción. Si no existiere, aborta la ejecución del proceso. Habitualmente, las excepciones sólo se pueden tratar al final del código fuente de una función y dicha función termina después de tratar dicha excepción. Las excepciones se entienden mejor como tratamiento de un error o situación anómala.


EJERCICIO 3.16

¿Cómo se hace en POSIX para que un proceso cree otro proceso que ejecute otro programa? ¿y en Win32?

En POSIX son necesarios dos servicios: el servicio fork crea un nuevo proceso de uno original, y el servicio exec hace que el proceso hijo ejecute otro programa distinto al del padre.

En WIN32 el servicio CreateProcess (que es un servicio similar a la combinación fork-exec de POSIX) crea los procesos. WIN32 no permite a un proceso cambiar su imagen de memoria y ejecutar otro programa distinto. Este servicio crea a un proceso nuevo y su proceso ligero principal, ejecutando el archivo ejecutable especificado en la llamada al servicio.


EJERCICIO 3.17

¿Qué información comparten un proceso y su hijo después de ejecutar el siguiente código?

if (fork()!=0)

wait (&status);

else
execve (B, parámetros, 0);

ambos compartirán:

Datos.

Pila.

PC (contador de programa).

Descriptores de archivos abiertos.


En un sistema operativo conforme a la norma POSIX, ¿cuándo pasa un proceso a estado zombie?

En el estándar POSIX un proceso pasa a estado zombie cuando su función ha finalizado pero no se han liberado sus recursos debido a que el padre no ha ejecutado un wait(). No se puede liberar el BCP donde se almacena la información de quién es el padre del proceso hasta que se le pueda informar de que el proceso ha finalizado.


EJERCICIO 3.19

Tras la ejecución del siguiente código, ¿cuántos procesos se habrán creado?
for (i=0; i <>

fork();

se crean (2**n-1) procesos.


EJERCICIO 3.20

Cuándo un proceso ejecuta una llamada fork y luego el proceso hijo un exec, ¿qué información comparten ambos procesos?

Cuando el primer proceso invoca al servicio fork, el Sistema Operativo realiza una clonación de este proceso en el estado que tenía al realizar la llamada. Cuando el proceso hijo llama a exec no se crea un nuevo proceso, si no que se permite que este proceso ejecute un programa distinto. El Sistema Operativo procede salvando el entorno de proceso y algunas informaciones del BCP, y se carga la imagen de memoria que corresponda. Este nuevo proceso hijo ya no tiene que ver con su padre más que esta relación de padre-hijo, los identificadores de usuario y grupo y las tablas de archivos abiertos que tenía el padre, que ahora están compartidas. Estos archivos abiertos se pueden usar para hacer trabajo en común o como una forma de comunicación.


EJERCICIO 3.21

¿Qué diferencia existe entre bloquear una señal e ignorarla en POSIX?

Cuando una señal es ignorada por un proceso, el sistema operativo transmite la señal al proceso, pero este la ignora. Para ignorar una señal basta con darle un tratamiento definido por SIG_IGN en la llamada al sistema signal. Como resultado, las señales ignoradas se suponen tratadas desde el sistema operativo, por lo que no se apuntan en ninguna parte. Un buen ejemplo son los programas que ignoran la señal que origina el teclado cuando se pulsa CTRL-C para evitar que se pueda matar al proceso.

Sin embargo cuando una señal es bloqueada, se almacena en el BCP asociado al proceso, la información necesaria para que la señal sea tratada cuando el proceso la desbloquee. Cuando ocurra esto último, el sistema operativo enviará de nuevo la señal al proceso basándose en la información almacena en el BCP. La señal no será enviada al proceso hasta que sea desbloqueada. Para ello, se define una máscara de señal mediante la llamada al sistema sigprocmask con un argumento SIG_BLK. Para desbloquearla, se usa el argumento SIG_UNBLOCK.


EJERCICIO 3.22

Escribir un programa en C que active unos manejadores para las señales SIGINT, SIGQUIT y SIGILL. Las acciones a ejecutar por dichos manejadores serán:
a) para SIGINT y SIGQUIT, abortar el proceso con un estado de error.
b) para SIGILL, imprimir un mensaje de instrucción ilegal y terminar.

#include

#include

void abortar_proceso (void){

exit(-1);

}

void msg_y_terminar (void){

printf(“Instrucción ilegal\n El proceso terminará. \n”);

exit(-1);

}

void main(void){

struct sigaction act;

sigset_s mask;

act.sa_handler = abortar_proceso;

sigemptyset(&act.mask);

sigaction(SIGINT,&act, NULL);

sigaction(SIGQUIT,&act, NULL);

act.sa_handler = msg_y_terminar;

sigemptyset(&act.mask);

sigaction(SIGILL,&act, NULL);

}


EJERCICIO 3.23

Dado el siguiente programa en C

void main(int argc, char argv) {

int i;

for (i =1; i <= argc; i++)

fork();

....
se pide:

a) Dibujar un esquema que muestre la jerarquía de procesos que se crea cuando

se ejecuta el programa con argc igual a 3.

b) ¿Cuántos procesos se crean sin argc vale n?


A) Aunque a primera vista parece que solo se crean argc procesos debido a las argc iteraciones del bucle, en realidad se crean (2**argc-1). Es decir, si argc = 3, se crean 7 procesos.

Proceso1

Proceso1 Proceso2 (i = 1)

Proceso1 Proceso3 Proceso2 Proceso4 (i = 2)


Proc1 Proc5 Proc3 Proc6 Proc2 Proc7 Proc4 Proc8 (i = 3)


B)Se crean (2**n-1) procesos nuevos, Proceso 1 ya existía.


EJERCICIO 3.24

Responder a las siguientes preguntas sobre las llamadas al sistema wait de POSIX y WaitForSingleObject de Win32 cuando está se aplica sobre un manejador de proceso.
a)
¿Cuál es la semántica de estas llamadas?
b)
Indicar en qué situaciones puede producirse cambio de proceso y en qué casos no.

c) Describir los pasos que se realizan en estas llamadas al sistema desde que se llama a la rutina de biblioteca hasta que ésta devuelve el control al programa de usuario. Indicar cómo se transfiere el control y parámetros al sistema operativo, cómo realizaría su labor el sistema operativo y cómo devuelve el control y resultados al programa de usuario.

a)

Para wait de Posix

pit_t wait (int *status)

- Permite a un proceso padre esperar hasta que termine la ejecución de un proceso hijo.

ParawaitForSingleObject de Win32

DWORD WaitForSingleObject (Handle hObject, DWORD dwTimeOut)

- Bloquea al proceso hasta que el proceso con manejador hObject finalice su ejecución.

B)

Se producirán cambios de proceso cuando el proceso padre pase a bloqueado por la llamada wait. En este caso pasaría a ejecutar el proceso hijo. Cuando este proceso hijo
Finalice su ejecución el proceso padre deja de estar bloqueado y continua su ejecución.

Para Win32 y su llamada WaitForSingleObject se producira un cambio de proceso por el tiempo especificado en dwTimeOut. Un proceso permanecera bloquedo durante este tiempo mientras ejecuta otro. Si el tiempo concluye o el proceso con el manejador termina su ejecución se continúa ejecutando el proceso antes bloqueado.

c)

Cuando se hace una llamada a wait esta suspende la ejecución del proceso padre que se queda bloqueado hasta que finaliza la ejecución de uno de sus procesos hijos. Esta función devuelve el valor del identificador del proceso hijo que ha finalizado. Si status es distinto de null, entonces se almacena en esta variable información relativa al proceso que ha terminado.

Otra situación se produce cuando un proceso hijo ha terminado su ejecución y se encuentra con que el padre no esta bloqueado con un wait. Este proceso hijo almacenara su información en BCP del hijo hasta que el padre la adquiera con el servicio wait. A este proceso hijo se le llama zombie.

La ultima situación se produce cuando un proceso con hijos termine antes que estos. Estos procesos huerfanos pasarían a cargo del proceso init.

En la llamada WaitForSingleObject para win32 se bloquea un proceso hasta que el proceso con manejador hObject termine su ejecución. En el argumento dwTimeOut se especifica el tiempo máximo que el proceso quedara bloqueado. Un valor de 0 hace que la función vuelva inmediatamente después de comprobar si el proceso termino su ejecución. Un valor INFINITE hace que el proceso quede bloqueado hasta que no termina la ejecución del proceso con manejador hObject.


EJERCICIO 3.25

Escribir un programa similar al programa 3.15, que utilice los servicios de Win32 para temporizar la ejecución de un proceso

// Programa temporizador

#include

#include

#include

#include

HANDLE hnd;

void matar(){

TerminateProcess(hnd,0);

printf("\n");

printf("Ha terminado el tiempo de ejecución del proceso");

}

void main(int argc,char **argv)

{

static STARTUPINFO si;

static PROCESS_INFORMATION pi;

UINT tid;

UINT tiempo=20;

UINT idEvent=2;

MSG msg;

if(argc == 2){

if (!CreateProcess(NULL,argv[1],NULL,NULL,FALSE,0,NULL,NULL,&si,&pi)){

printf ("Error al crear el proceso. Error: %x\n",

GetLastError ());

ExitProcess(0);

}

hnd= OpenProcess(PROCESS_ALL_ACCESS,FALSE,pi.dwProcessId);

tid = SetTimer(NULL,NULL,tiempo,matar);

msg.hwnd = NULL;

if (GetMessage(&msg,NULL,NULL,NULL)!= 0 &&

GetMessage(&msg, NULL, NULL, NULL) != -1){

if (msg.message == WM_TIMER) msg.hwnd = NULL;

TranslateMessage(&msg); // traducir códigos virtuales

DispatchMessage(&msg); // enviar el mensaje a la ventana

}

KillTimer(NULL,tid);

WaitForSingleObject(hnd,INFINITE);

}

else printf("faltan argumentos");

/* el proceso acaba */

exit(0);

}

// Programa Hola de prueba

#include

void main(){

while(1 == 1){

printf("Hola");

}

}

A continuación se incluye una posible solución con threads:

#include

#include

#define MAX_THREADS 10

void func (void)

DWORD WINAPI ThreadFunc (LPVOID);

{

printf (“Thread %d /n”, GetCurrentThreadId()/*pthread_self()*/);

ExitThread (DWORD dwExitCode);

}

void main()

{

int j, i;

pthread_t thid[MAX_THREADS];

for (j = 0; j <>

Manejador_Proceso = CreateThread (NULL,NULL,func,NULL,0,&thid[j]);

for( i = 0; I <= 5; i++) SuspendedThread(Manejador_Proceso);

ResumeThread(Manejador_Proceso);

}