Cookie usage policy

The website of the University Carlos III of Madrid use its own cookies and third-party cookies to improve our services by analyzing their browsing habits. By continuing navigation, we understand that it accepts our cookie policy. "Usage rules"

Seminars

2015

Scalable Data Analysis on Parallel and Cloud Computing Systems

Summary:

The analysis of large and distributed data repositories requires the combined use of smart data analysis techniques and scalable architectures to find and extract useful information from them. Parallel systems, Grids and Cloud computing platforms offer an effective support for addressing both the computational and data storage needs of Big Data mining and parallel analytics applications. In fact, complex data mining tasks involve data- and compute-intensive algorithms that require large storage facilities together with high performance processors to get results in suitable times. In this seminar we introduce the most relevant topics and the main research issues in high performance data mining including parallel data mining strategies, knowledge Grids and Cloud data mining. We also present some data mining frameworks designed for developing distributed data analytics applications as workflows of services on Grids and Clouds. In these environment data sets, analysis tools, data mining algorithms and knowledge models are implemented as single services that are combined through a visual programming interface in distributed workflows. Some applications will be also discussed.

Short Bio:

Domenico Talia is a full professor of computer engineering at the University of Calabria in Italy. He is a partner of two startups, Exeura and DtoK Lab. His research interests include parallel and distributed data mining, cloud computing, Grid services, knowledge discovery, mobile computing, green computing systems, peer-to-peer systems, and parallel computing. Talia published ten books and more than 300 papers in archival journals such as CACM, Computer, IEEE TKDE, IEEE TSE, IEEE TSMC-B, IEEE Micro, ACM Computing Surveys, FGCS, Parallel Computing, IEEE Internet Computing and international conference proceedings. He is a member of the editorial boards of IEEE Transactions on Computers, IEEE Transactions on Cloud Computing, the Future Generation Computer Systems journal, the International Journal on Web and Grid Services, the Scalable Computing: Practice and Experience journal, MultiAgent and Grid Systems: An International Journal, International Journal of Web and Grid Services, and the Web Intelligence and Agent Systems International journal. Talia served as a chair, organizer, or program committee member of several international conferences and gave many invited talks and seminars in conferences and schools. He is a member of the ACM and the IEEE Computer Society.

Links:

2014

Cloud Computing: Oportunidades de Innovación y Gestión Estratégica
Professor/Profesor: Ignacio Martín Llorente
Dates/Fechas: 10 y 11 de marzo de 2014
Place/Lugar: Universidad Carlos III de Madrid Campus de Leganés. Aula 2.3.A03

Abstract/Resumen:

Cloud Computing es un nuevo modelo de provisión de recursos como servicio, bajo demanda, y de forma elástica y dinámica a través de Internet. El objetivo de la conferencia es describir las posibilidades del Cloud Computing y el impacto potencial de su adopción como fuente de innovación y ventaja competitiva. Este innovador modelo puede tener además un impacto significativo en la estructura de costes de la empresa en función de la variabilidad de la demanda de recursos. En el seminario se presentan las diferentes perspectivas y los beneficios del Cloud Computing, así como los tipos de servicio Cloud y modelos de despliegue mostrando ejemplos de servicios reales. Además se describen las consideraciones más importantes a tener en cuenta cuando se evalúa la adopción del modelo, incluyendo los principales obstáculos de adopción y lo factores a considerar en la negociación con el proveedor. Por último, se discute la relevancia estratégica de la adopción del modelo Cloud Computing.

Contenidos:

Modelos de Provisión

Consideraciones sobre Adopción

El Factor Económico

Gestión Estratégica

Modelos de Despliegue

El Futuro del Cloud

2013

Big data y Computación Cloud

Subject/Título: Big data y Computación Cloud
Professor/Profesor: Maria de los Santos Perez
Dates/Fechas: 5 y 6 de febrero de 2013
Place/Lugar: Universidad Carlos III de Madrid Campus de Leganés. Aula 2.1.C01

Abstract/Resumen:

Actualmente se ha producido una gran explosión de datos digitales, debido principalmente a dos factores.

Por un lado, el interés de las empresas en tratar datos de diversa naturaleza, destacando de manera notoria datos de personas físicas o datos recogidos a partir de la observación y el uso de sensores en diferentes entornos; y por otro lado, el relevante papel del ciudadano en la publicación de contenidos, a través de diferentes canales, como pueden ser dispositivos móviles o redes sociales. A esta gran colección de datos se le ha dado a conocer como Big data. El almacenamiento, tratamiento, análisis y visualización de Big Data supone un enorme reto que está siendo abordado desde diferentes perspectivas.

Por otro lado, en la última década, el mundo de la computación ha sufrido grandes cambios tecnológicos al aparecer un conjunto de iniciativas de diversas empresas fuertes del sector, como Amazon, Google, Salesforce o Microsoft, que ofrecen infraestructuras como servicio (IaaS, Intrastructure as a Service), plataformas como servicio (PaaS, Platform as a Service) y software como servicio (SaaS, Software as a Service), conceptos a los que junto con otras características se
les ha dado el nombre genérico de computación cloud (en nube) o cloud computing. Este nuevo paradigma implica un cambio conceptual en el uso y la gestión de los recursos informáticos, en el que dichos recursos constituyen el servicio básico, de manera análoga al consumo por parte de los usuarios de servicios básicos como pueden ser el acceso a la red eléctrica o a la red telefónica.

Este seminario describirá los retos de Big Data y las soluciones propuestas dentro de la computación cloud.

Cloud Computing challenges: from a developer to a provider point of view

Developing an application that consumes resources from Cloud providers
is a challenge as a variety of tools and API are currently available,
most of them leading to a vendor lock-in of the developed application.
To avoid this problem several considerable efforts are devoted by researchers and companies.
Focus will be put on current solutions to overcome this status.

The presentation will include:

generalities about Cloud computing (see for example [1])

a training in mOSAIC technologies (see for example [2,3])

overview of on-going activities on Cloud Computing in European Commission projects
(see for example [4,5]), with accent on model-driven engineering & Clouds (MODAClouds [6])

hints about the technologies at the provider side: scheduling and auto-scaling (AMICAS [7])

Useful links:

Lecture about Cloud computing (http://web.info.uvt.ro/~petcu/distrib/TDS12.pdf)

Portability tutorial (http://%20http//www.iaria.org/conferences2012/filesCLOUDCOMPUTING12/portability_tutorial.pdf)

mOSAIC developers (http://developers.mosaic-cloud.eu/)

Cloud computing in ERA (http://www.c-s-p.org/Flyers/978-1-4438-3507-7-sample.pdf)

Advances in Clouds (http://cordis.europa.eu/fp7/ict/ssai/docs/future-cc-2may-finalreport-experts.pdf)

MODAClouds (http://www.modaclouds.eu/)

AMICAS (http://amicas.hpc.uvt.ro/)

2012

High Performance Multimedia Computing

This course is concerned with the high performance computing tools for multimedia applications historically ranging from the cluster ray­‐trace rendering of early 80’s to the today strict requirements for near real time applications walking throw the amazing techniques of elastic transcoding needed by the upcoming mobile devices provided by tridimensional cameras.

The high performance computing usually referred as HPC is provided by a floating formal definition that could
sound as “the most up­-to-date technology achieving the best computing results”. Thanks to this philosophically-­powered definition we could
state the Babbage machine, if ever build, was the Victorian equivalent of today BlueGene. The technology related to the HPC field changed
many times in the last few years: symmetric multi processors, distributed memory computing clusters, clusters of many-­‐core
provided nodes, general purpose GPUs, hieratical parallelism, grid and cloud computing. Stepping over the hype of each technology today is
more difficult explain what is not HPC thank what it is.

In the field of multimedia application the HPC technologies play the same role of special effects in movies: as better as not visible. Todays HPC technologies permits the near real time responsiveness needed in the business of multimedia applications. The rise of the pervasive and ubiquitous access to multimedia contents and the need to contribute to them increased the need of distributed high performance multimedia computing.

Harnessing Massively Parallel Processors

Virtually all semiconductor market domains, including PCs, game consoles, mobile handsets, servers, and supercomputers, are converging to concurrent platforms. There are two important reasons for this trend. First, these concurrent processors can potentially offer more effective use of chip space and power than traditional monolithic microprocessors for many demanding applications. Second, an increasing number of applications that traditionally used Application Specific Integrated Circuits (ASICs) can be implemented using concurrent processors to improve functionality and reduce engineering cost. The real challenge is to develop applications software that effectively uses these concurrent processors to achieve efficiency and performance goals.

The aim of this course is to provide students with knowledge and hands-on experience in developing applications massively parallel processors as well, an understanding of current research topics in this area, and an opportunity to write and critically review research papers. Many commercial offerings from NVIDIA, AMD, and Intel already offer concurrency at massive scale. Effectively programming these processors requires in-depth knowledge about parallel programming principles, as well as the parallelism models, communication models, and resource limitations of these processors.

The course will cover fundamental issues related to architecting and building applications that harness massively parallel processors, with a focus on graphical processing units (GPUs): programming models for massive parallelism, application optimization techniques, compile and runtime support, as well as case studies for specific application-domains.

Distributed Systems, Grids and Clouds

Subject/Título: Distributed Systems, Grids and Clouds
Professor/Profesor: Helen D. Karatza
Dates/Fechas: 27, 28 y 29 de febrero de 2012
Place/Lugar: Universidad Carlos III de Madrid Campus de Leganés. Aula 12C16

Abstract/Resumen:

Distributed systems are essential to meet the needs of demanding applications because they have increased computing power, are cost-effective and are easily scalable. They consist of loosely interconnected processors, where jobs to be processed are in some way apportioned among the processors, and various techniques are employed to coordinate processing.
Computational and data grids and clouds are large-scale distributed systems used for serving demanding jobs. Their performance became more important due to the tremendous increase of users and applications.
A grid is a decentralized heterogeneous system with its resources geographically distributed at different sites. The main idea of grid computing is to use a large number of distributed resources in order to solve complex and computationally demanding problems that practically could not be solved on a single resource.
Cloud computing evolves from grid computing. Clouds provide elasticity in resource usage as well as a pay as-you-go opportunity.
Because of the nature of these systems, there are important issues that must be addressed, such as: efficient scheduling, resource management, energy efficiency, reliability, security and trust, cost, availability, quality.
Resource allocation and scheduling is a difficult task in grids and clouds where there are many alternative heterogeneous computers. The performance evaluation of these systems is often possible only by simulation rather than by analytical techniques, due to the complexity of the systems. Simulation can provide important insights into the efficiency and tradeoffs of scheduling in large-scale complex distributed systems, such as grids and clouds.

Topics Covered:
* Distributed systems algorithms (distributed consensus, leader election)
* Real time distributed systems
* Resource management (discovery, allocation)
* Scheduling in grids and clouds
* Energy efficiency
* Performance – Modelling and Simulation

Biography/Sobre la ponente:

Helen Karatza is a Professor in the Department of Informatics at the Aristotle University of Thessaloniki, Greece. She received the B.S. degree and Ph.D. from the Aristotle University.
Dr. Karatza’s research interests include Computer Systems Modeling and Simulation, Performance Evaluation of Parallel and Distributed Systems, Grid and Cloud Computing, Resource Allocation and Scheduling and Real-time Distributed Systems.
Dr. Karatza has authored or co-authored over 165 technical papers and book chapters. She is Editor-in-Chief of the Elsevier Journal Simulation Modeling Practice and Theory

Materiales: karatza

Data Management in Wireless Sensor Networks

Wireless sensor networks (WSN) are a recent technology aimed at the automation of environmental monitoring by means of highly distributed, low-cost and wireless sensors. Some WSN paradigms provide a unified organization of WSN by combining database technologies with WSNs. In these paradigms the database to be queried is the physical environment where the WSN is deployed. These approaches abstract specific sensor features and offer to the applications an SQL-like query language through which it can program the network and access the sensed data. More recently the same approach has been extended to the tracking of composite, moving events.

Under this trend of research we identify data collection, intra-sensor and inter-sensor communication as recurring activities in WSN applications and propose a layered approach in which the lower layer models the communications and the sampling functions of the sensors in terms of streams, and the upper layer performs query processing on streams. The MaD-WiSe system is a wireless sensor network database based on this approach and designed to perform in-network distributed query processing. The talk describes the MaD-WiSe system, and discusses its extension for the tracking of moving events.

11:00-13:00h

2011

Trends and future of C++: Evolving a systems language for performance

Profesor: Prof. Bjarne Stroustrup (Texas A&M University) and Michael Wong (IBM)
When: 18th March 2011 + 28th March 2011
Where: Universidad Carlos III de Madrid Campus de Leganés. Salón de actos

Abstract:
Over the last decades, C++ has become one of the most widely used languages supporting object-oriented programming by making abstraction techniques affordable and manageable for mainstream projects. Using C++ as his tool, Prof. Bjarne Stroustrup pioneered the use of object-oriented and generic programming techniques in application areas where efficiency is a premium; examples include general systems programming, switching, simulation, graphics, user-interfaces, embedded systems, and scientific computation. The influence of C++ and the ideas it popularized are clearly visible far beyond the C++ community. Languages including C, C#, Java, and Fortran99 provide features pioneered for mainstream use by C++.

C++ is a general purpose programming language with a bias towards systems programming which supports multiple styles of programming. Since 1998 C++ is an ISO standard. In these days a new version of the language is about to become a new ISO standard. This seminar will start by introducing the new features of the language and showing the challenges of evolving an existing programming language with a huge code base. Additionally, the seminar will introduce the new concurrency model for C++ and its impact both on the language and the standard library. Finally, a set of tools for parallel software development (Intel Parallel Building Blocks) will be presented.

Links: https://www.arcos.inf.uc3m.es/~jdaniel/sem-cpp-11/

2010

Sensores inalámbricos

Ponente: Prof. Dr. Pedro José Marrón
Sala: Universidad Carlos III de Madrid Campus de Leganés. Aula 21C10
Fecha de impartición: 8, 9 y 10 de febrero
Horario: 16:00 a 20:00

 

2009

High-Performance Computing and Image Processing

Profesor: Hamid R. Arabnia
When: 2-3 March.
Where: Universidad Carlos III de Madrid Campus de Leganés.

Abstract:

The talk would include:

* an introduction to image processing
* an introduction to high-performance computing
* the integration of the above two for form applications
* (example aplications would be in medical imaging, security, face recognition, …

Filecules and Small Worlds in Scientific Communities: Characteristics and Signif

Profesor:Adriana Iamnitchi
Origen:University of South Florida
Fecha impartición: Julio de 2007.
Duración: 10 horas.

Abstract:

Most of today’s science depends on the processing of massive amounts of data in multi-institutional and even international collaborations. Grid computing focuses on enabling resource sharing for wide-area collaborations and has currently reached the stage where deployments are mature and many collaborations run in production mode. As with any growing technology, Grid usage characteristics (that inherently affect performance) could not have been predicted before or during design and implementation. This lack of evidence in usage characteristics has three significant outcomes: (1) resource management solutions are evaluated on irrelevant traces; (2) quantitative comparison of alternative solutions to the same problem becomes impossible due to different experimental assumptions and independently generated workloads; and (3) solutions are designed in isolation, to fit the particular and possibly transitory needs of specific groups.

These concerns led us to analyze more than two years of workloads from a high-energy physics collaboration. In addition to contradicting previously accepted models, we discovered two novel data-usage patterns. First, a data-centric analysis reveals the existence of filecules, groups of files that are always processed together. Second, a user-centric analysis discovers small-world properties in data sharing that show emergent, interest-based grouping of users. We show that exploiting these patterns for designing resource management solutions leads to better scalability, lower costs, and increased adaptability to changing environments. In addition, these traces helped us evaluate the viability of offloading the storage needs of the high-energy physics collaboration to the Amazon Simple Storage Service (S3). We identify ways to exploit application-specific characteristics for reducing S3 storage costs and discuss the support that a storage utility service such as S3 needs to provide in order to support scientific data-sharing collaborations.

Environmental Modeling using Grid Computing

Ponente:Raffaele Montella
Origen:University of Naples “Parthenope”
Fecha impartición: Junio de 2007.
Duración: 10 horas.

Abstract:

The environmental modeling is one of the most attractive fields in the grid computing technologies based application development because it involves some specific needs suited to be solved by high performance computing, distributed computing, workflow management, service oriented architectures, network of shared instruments handling and so on.

The Department of Applied Sciences of the University of Naples “Parthenope” joined the historical knowledge in environmental modeling and applied mathematics with the strongly computer science oriented grid computing components and applications development field. In this contest a grid architecture was designed and developed spreading over it open source environmental numerical models building a virtual laboratory for meteo-marine forecasts, now casts and scenario analysis.

The developed application runs dynamically thanks to a from scratch developed job flow scheduler (JFSS, Job Flow Scheduler Service), resource broker (RBS: Resource Broker Service), five dimensional data distribution service (GDDS: Grads Data Distribution Service) and an instrument virtualization service (IS, Instrument Service) using Globus Toolkit version 4 web services. The actual grid application integrates the WRF (Weather Research and Forecast) forcing in one way mode both the Princeton Ocean Model (POM) and the WaveWatch III ocean wave model and the Weather Research and Forecast (WRF) model forcing the Comprehensive Air-Quality Model with Extensions (CAMx). The aim of this seminar suite is to provide a theoretical and practical skills on grid enabling environmental models using both the approaches based on remote execution via specific protocols as the Globus GT2 does and a service oriented architecture where different models are coupled thanks the GT4 provided web services.

Ubiquitous and pervasive Web: services and architectures

Riccardo Lancellotti
University of Modena e Reggio Emilia
Fecha impartición: Abril de 2007.
Duración: 10 horas.

Abstract:

The evolution of network-based services will be characterized by mobile users accessing highly complex, multimedia-oriented and personalized services. Access to content, information and services will be tailored to the client device, the user preferences and its context. The so-called social-networking services represent an example of the next generation of network-based services.

The course will provide a description of possible future scenarios, describing the currently available services and outlining their possible evolution. Furthermore, the course will discuss how this evolution is likely to impact on the server infrastructure. To this aim we will present several systems and architectures proposed by industry and in scientific literature, describing their characteristics and heir performance. We will discuss how these proposal can address the need of next generation network-based services.

2007

Distributed Web-based architectures for content and service delivery

Profesor: Michele Colajanni, University of Modena and Reggio Emilia
Fechas: 6, 7 y 9 de febrero de 2007.
Lugar: Universidad Carlos III de Madrid Campus de Leganés. Aula 71J06

Resumen:

The successful of the Web in the last decade has significantly modified the type of resources that are distributed through the Internet. The initial static contents are now enriched by dynamically generated resources, with an increasing amount of multimedia and personalized services. This evolution is shifting the research focus from Web content delivery to service delivery that introduces new scalability and performance problems to the hardware/software infrastructures that have to generate and distribute content.
Indeed, the heterogeneity and richness of present and future services increase the necessity of high performance architectures that exploit caching and replication through multiple servers that are distributed over a local and/or a geographical area. In these lessons, we investigate the main architectures for efficient generation, adaptation and delivery of contents and services through the Internet with a major focus on performance. We will illustrate the advantages and limits of current solutions, and possible directions for future research.

Sobre el ponente: Prof. Colajanni is Full Professor at Univeristy of Modenna and Reggio Emilia. Previously he has performed research activities at University of Rome and IBM T.J. Watson Research Center. He has published about 120 publications in referred journals, book chapters and conference proceedings (A list of the most recent papers can be found at: http://weblab.ing.unimo.it/people/colajanni/publications.shtml). He is the director of the Web Engineering and Performance Laboratory (WEBlab, http://weblab.ing.unimo.it).

Material del seminario:

Part 1
Part 2
Part 3
Assignments

2006

Técnicas de Alto Rendimiento en el Diseño de Procesadores

Ponente: Profesor Francisco Tirado
Universidad Complutense de Madrid, España.
Fecha impartición: 27 al 29 de marzo 2006.
Horario: de 16 a 20 horas. Duración: 10 horas.
Sala: Adoración de Miguel. 12 C 16
Escuela Politécnica Superior. Universidad Carlos III. Leganés, Madrid

Material del seminario: carlosiii-1.zip

MATERIAL COMPLETO

Abstract:

Objetivos:

Revisar las técnicas actuales de diseño de procesadores, dando una visión integrada de las interdependencias entre la evolución de la tecnología y la arquitectura de estos procesadores integrados
Conocimientos y destrezas que se requieren: Arquitectura de Computadores: nivel avanzado;

Contenidos:

1. Introducción: Tendencias tecnológicas, costo/ rendimiento . ProCesadores superescalares . Tratamiento de dependencias de control . Acceso a memoria, limites del modelo . Predicción de datos Arquitecturas VLIW Compilación y Optimización Dinamica
2. Tratamiento de dependencias de control I
2.1 Introducción
2.2 Tratamiento de saltos
2.3 Técnicas de predicción de saltos
3. Tratamiento de dependencias de control II
3.1. Predicción multiple
3.2. Más AB en la etapa fetch: Branch Address Cache, Collapsing Buffer, Trace Cache, Multiple Block Ahead Branch Predictor, Path Prediction
4 Acceso a memoria, limites del modelo
4.1 Acceso a Memoria: Prebusqueda SW, Prebusqueda HW, Caches sin bloqueo, Especulación de Load
4.2. La siguiente generación: Procesadores multithreading, Procesadores de traza, Procesadores superespeculativos, Procesadores multiescalares, Multiprocesadores en un chip
5. Manejo del flujo de datos
5.1. Localidad de datos
5.2. Técnicas no especulativas
5.3. Técnicas especulativas
6. Optimización y traducción binaria dinámicas

Bibliografía:

Superscalar Microprocessor Design, M. Johnson, Prentice Hall, 1991
Advanced Computer Architectures, D. Sima, T. Fountain, P. Kacsuk, Addison- Wesley, 1997
The Anatomy of a High- Performance Microprocessor A Systems Perspective, B. Shriver, B. Smith, IEEE Computer Society, 1998
Modern Processor Design; J.P. Shen, M. H. Lipasti, ; McGraw Hill, 2005;

2005

Ingeniería de Requisistos: conceptos, procesos y estado de la investigación

Ponente:Prof. Pere Botella
Catedrático de Lenguajes y Sistemas Informáticos
Universidad Politécnica de Cataluña
Fecha impartición: 1, 2 y 3 de febrero de 2005.
Horario: de 16 a 20 horas. Duración: 10 horas.
Sala: 23 A 02. Edificio Sabatini.

Escuela Politécnica Superior. Universidad Carlos III. Leganés, Madrid

Material del seminario:

ingreqciii.zip

Ejemplo práctico

Abstract:

El seminario tiene dos partes diferenciadas: la primera (6 primeros temas) repasan los diferentes aspectos y actividades de la Ingeniería de Requisitos, y la segunda (3 últimos temas) se centra en los temas de investigación actuales, los grupos que la llevan a cabo y los trabajos del grupo al que pertenece el profesor. La primera parte incluye pequeños ejercicios prácticos.

PROGRAMA:

Definiciones y ámbito

Los procesos: conceptos básicos

El proceso de la Ingeniería de Requisitos: modelos de proceso

Las actividades: descripción de las diferentes tareas

Propiedades y validación

Gestión de Requisitos

La investigación: visión general

Grupos de investigación relevantes y sus líneas

La investigación en el grupo GESSI

BREVE CV DEL PONENTE:

El Dr. Pere Botella es Catedrático en la UPC (Universitat Politècnica de Catalunya). Ha trabajado activamente en el campo de la ingeniería del software desde hace más de 25 años. Ha sido Decano de la Facultad de Informática (1992-1998) y Vicerrector de la UPC (1982-1986 y 1998-2002). Desde 1989 a la actualidad, director del Master en Ingeniería del Software de la UPC. Autor de mas de 40 publicaciones. Miembro del comité de programa de diversas conferencias internacionales, incluyendo ESEC, ICSE, RE, ICCBSS, SEKE y otras, habiendo sido “executive chair” y co-editor de ESEC’95. Miembro de los comités permanentes de ESEC y de JISBD. Ha sido coordinador para España de la red RENOIR (European Network of Excellence in Requirements Engineering).

Tecnologías de Máquinas Virtuales

Ponente: Juan Manuel Cueva
Sala: Universidad de Oviedo
Fecha de impartición: 17 al 19 de enero de 2005
Horario: 16:00 a 20:00

 

2004

Architecture/Software Co-Design Techniques For Software Security And Data Intensive Computing

Ponente:Prof. Alok Choudhary
Department of Electrical Computing Engineering
Nothwestern University
Chicago, EE.UU.
Fecha impartición: 9 y 10 de diciembre de 2004.
Horario: de 15 a 20 horas.
Duración: 10 horas.
Lugar: Escuela Politécnica Superior, Universidad Carlos III. Leganés, Madrid
Edificio Sabatini. Sala: 21C01

Material del seminario:  alok-2004.zip

Abstract:

This seminar shows the new in trends in Architecture/Software Co-Design Techniques for Software Security and Protection and Data Intensive Computing and Ultra-Scalability for Parallel I/O. The objective of this presentation is to present various recent results and approaches to security and protection of systems. In particular, this presentation will focus on architectural advances as well as co-design and compilation approaches to enhance software protection and security. Moreover, it will present data intensive computing as required in scientific data analysis, management and discovery.

Topics:

1. Introduction
2. Security Life-Cycle
3. Threat Models
4. Architectural approaches (Intel LeGrande, ARM Trustzone etc.)
5. Trusted Computing Group’s specification
6. HW/SW co-design techniques and security performance tradeoffs.
7. Parallel File Systems: new approaches to scalability for ultrascale computing
8. Ultra-scalability using access pattern analysis and elimination of synchronization
9. Scalable runtime systems for parallel I/O
10. Scalable data mining techniques and recent results.
11. Conclusions.

Short biography of the author:

Prof. Alok Choudhary got his Ph.D. at the University of Illinois, Urbana-Champaign, in 989. He is currently a full Professor, ECE Department in the Northwestern University, Chicago, USA. He has got several awards, including the NSF Young Investigator Award, in 1993, the IBM Faculty Development Award, in 1994, the Intel Faculty Research Award, in 1993, and the IEEE Engineering Foundation Award, in 1990. His research interest includes compilers and Runtime Systems for High-Performance, embedded and adaptive computing systems and power-aware systems, High-Performance Databases, OLAP and datamining and Parallel and distributed Input-Output for Scientific and Information Processing Applications.

Grid Computing for Data Intensive Applications

Dr. Heinz Stockinger
CERN, European Organization for Nuclear Research
Ginebra, Suiza
15 a 17 Marzo de 2004
Horario: de 16 a 20 horas.
Aula de audiovisuales. Biblioteca. Planta sótano
Duración: 10 horas.
Lugar: Escuela Politécnica Superior Universidad Carlos III. Leganés, Madrid
Material del seminario: gridseminar.zip

Breve biografía del autor:

Dr. Heinz Stockinger holds a Ph.D. in ‘Computer Science and Business Administration’ from the University of Vienna, Austria. He has a Fellow position at CERN (European Organization for Nuclear Research, Geneva, Switzerland) where he is working in the EU DataGrid (EDG) project. His research interest is Grid Computing and in particular data management in Data Grids. In the EUDataGrid project he is responsible for replication software. In addition, he is EDG’s Education & Outreach Manager and thus teaching of Grid Computing.

In the last few years Grid computing has become very popular in several communities in research as well is in industry and commerce. Whereas classical Computing Grids deal with CPU intensive applications, Data Grids are suitable to deal with large amounts of data and thus can support data intensive applications.

The seminar covers several aspects of Grid computing, provides a basic introduction to Data Grids and state of the art in this research domain. Emphasis will be put on typical data management problems of data intensive applications and how there are approached in currently existing Grid systems. As an example Grid, there is a focus on the European DataGrid project with its current software systems.

Additional topics will cover specific middleware issues in job submission, data management, information systems as well as on DataGrid’s security architecture. The seminar closes with a short outlook into the future of Grid technologies.

Temario:
*Introduction to Grid Computing
*The European DataGrid Project and Other Grid Projects in Europe
*Grid Architecture and Services
*Data and Replica Management
*Selected Topics on Grid Services

Requirements:

Students attending the seminar should have a basic knowledge of:

-the Unix/Linux operation system

-distributed computing

2003

Cómputo Paralelo: Aplicaciones, Arquitecturas y Programación

Prof. Dr. Jorge Buenabad
Sección de Computación
Departamento de Ingeniería Eléctrica
Centro de Investigación y de Estudios Avanzados del IPN
Fecha impartición: 25 al 27 de noviembre de 2003.
Horario: de 16 a 20 horas.
Duración: 10 horas.
Lugar: Escuela Politécnica Superior. Aula 20D14.
Universidad Carlos III. Leganés, Madrid
Material del seminario: buenabad.zip

Breve biografía del autor:

Ingeniero por la Universidad Autónoma de México DF. Doctor en Ciencias (Ingeniería Eléctrica, 1998) Universidad de Bristol, Inglaterra.
Imparte docencia e investiga en temas relacionados con la Arquitectura e Ingeniería de Computadores, Arquitecturas no Clásicas y Redes de Altas Prestaciones.

Sus temas de investigación en la actualidad incluyen : Sistemas operativos, arquitectura de computadoras, lenguajes de programación de sistemas en paralelos y distribuidos.

Abstract:

En este seminario se presentará una vista general de las aplicaciones y de los mecanismos que hacen posible el cómputo paralelo. Se comienza para ello con la justificación del problema y de la necesidad de soluciones, para comentar a continuación las soluciones tecnológicas existentes y los paradigmas de programación paralela más adecuados para cada tecnología y problema. Se presenta arquitecturas escalables de memoria compartida y las requerimientos del software del sistema para administrarlas eficazmente. Se presenta el hardware y software utilizado para desarrollar y correr aplicaciones paralelas usando mensajes. Se presenta el hardware y software utilizado para desarrollar aplicaciones de memoria compartida. Se presenta la motivación para utilizar cúmulos de computadoras para aplicaciones paralelas y, en particular, para utilizarlas bajo el modelo de memoria compartida.

Temas:
1.Introducción

1.1.Aplicaciones que requieren paralelismo.

1.2.Computadoras SIMD y MIMD (Single Instruction Multiple Data y
Multiple Instruction Multiple Data).

1.3.Modelos de Programación MIMD: paso de mensajes, memoria
compartida.

1.4.Diseño de aplicaciones paralelas.

1.5.Herramientas y ambientes.

2. Sistemas de Paso de Mensajes

2.1.Multicomputadoras, cúmulos de computadoras.

2.2.Software del sistema.

2.3.Paso de mensajes en maquinas de memoria compartida.

2.4.Ventajas y desventajas.

3.Sistemas de Memoria Compartida

3.1.Motivacion: facilidad de programacion y portabilidad de las
aplicaciones.

3.2.Hardware: multiprocesadores

3.3.Consistencia de datos.

3.4.Software del sistema: lenguajes, librerias, sistema operativo.

3.5.Desventajas: no son escalables.

4.Multiprocesadores Escalables.

4.1.Maquinas NUMA (non-uniform memory access machines).

4.2.Maquinas CC-NUMA (cache coherente-NUMA)

4.3.Requerimientos del software del sistema para administrar
NUMAs y CC-NUMAs.

4.4.Arquitecturas de Difusion de Datos.

4.5.Requerimientos del software del sistema para administrar
ADDs.

5.Memoria Compartida en Cumulos de Computadoras.

5.1.Motivacion: bajo costo, propósito general, fácil actualización
del hardware.

5.2.Herramientas de desarrollo.

5.3.Enfoques para soportar memoria compartida.

5.4.Ventajas y desventajas.

5.5.Tendencias actuales.

Técnicas para la mejora de las prestaciones y servicios ofrecidos por la red InfiniBand

Ponentes:Prof. Dr. José Duato
Prof. Dr. Antonio Robles
Depto. de Informática de Sistemas y Computadores (DISCA)
Escuela Técnica Superior de Informática Aplicada
Universidad Politécnica de Valencia
Fecha impartición:16 al 18 de diciembre de 2003.
Horario: de 16 a 20 horas.
Duración: 10 horas.
Lugar: Aula 20D14, Escuela Politécnica Superior, Universidad Carlos III, Leganés, Madrid.

Material del seminario:slides-duato.zip

Breve biografía del coordinador:

Jose Duato received the MS and PhD degrees in electrical engineering from the Technical University of Valencia, Spain, in 1981 and 1985, respectively. In 1981 he joined the Department of Systems Engineering, Computers and Automation at the Technical University of Valencia. Currently, Dr. Duato is Professor in the Department of Computer Engineering (DISCA). He was also an adjunct professor in the Department of Computer and Information Science, The Ohio State University.

His current research interests include interconnection networks, multiprocessor architectures, networks of workstations, and switch fabrics for IP routers. Prof. Duato has published over 230 refereed papers. He proposed the first theory of deadlock-free adaptive routing for wormhole networks. This theory has been highly cited and used by other researchers. In particular, versions of this theory have been used in the design of the routing algorithms for the MIT Reliable Router, the Cray T3E supercomputer, the internal router of the Alpha 21364 microprocessor, and the BlueGene/L supercomputer. Also, Myricom Inc. has defined a special ITB packet type for their Myrinet network, thus providing support for the “In-Transit Buffer (ITB)” routing techniques developed by Prof. Duato.

Abstract:

Este seminario pretende mostrar una panorámica de la red Infiniband, sus algoritmos de encaminamiento, calidad de servicio, etc.

Temas:Técnicas para la mejora de las prestaciones y servicios ofrecidos por la red InfiniBand Ponentes:Prof. Dr. José Duato Prof. Dr. Antonio Robles Depto. de Informática de Sistemas y Computadores (DISCA) Escuela Técnica Superior de Informática Aplicada Universidad Politécnica de Valencia Fecha impartición:16 al 18 de diciembre de 2003. Horario: de 16 a 20 horas. Duración: 10 horas. Lugar: Aula 20D14, Escuela Politécnica Superior, Universidad Carlos III, Leganés, Madrid. Material del seminario: slides-duato.zip Breve biografía del coordinador: Jose Duato received the MS and PhD degrees in electrical engineering from the Technical University of Valencia, Spain, in 1981 and 1985, respectively. In 1981 he joined the Department of Systems Engineering, Computers and Automation at the Technical University of Valencia. Currently, Dr. Duato is Professor in the Department of Computer Engineering (DISCA). He was also an adjunct professor in the Department of Computer and Information Science, The Ohio State University. His current research interests include interconnection networks, multiprocessor architectures, networks of workstations, and switch fabrics for IP routers. Prof. Duato has published over 230 refereed papers. He proposed the first theory of deadlock-free adaptive routing for wormhole networks. This theory has been highly cited and used by other researchers. In particular, versions of this theory have been used in the design of the routing algorithms for the MIT Reliable Router, the Cray T3E supercomputer, the internal router of the Alpha 21364 microprocessor, and the BlueGene/L supercomputer. Also, Myricom Inc. has defined a special ITB packet type for their Myrinet network, thus providing support for the “In-Transit Buffer (ITB)” routing techniques developed by Prof. Duato. Abstract: Este seminario pretende mostrar una panorámica de la red Infiniband, sus algoritmos de encaminamiento, calidad de servicio, etc. Temas: Introducción InfiniBand: Conceptos básicos Encaminamiento en InfiniBand Viabilidad del uso de encaminamiento up/down en InfiniBand Técnicas mejoradas de encaminamiento determinista Técnicas de encaminamiento adaptativo en InfiniBand Calidad de servicio en InfiniBand Clasificación del tráfico y garantías de calidad de servicio Cálculo de las tablas de arbitraje Reconfiguración de la red Técnicas mejoradas de reconfiguración para InfiniBand

Introducción
InfiniBand: Conceptos básicos
Encaminamiento en InfiniBand
Viabilidad del uso de encaminamiento up/down en InfiniBand
Técnicas mejoradas de encaminamiento determinista
Técnicas de encaminamiento adaptativo en InfiniBand
Calidad de servicio en InfiniBand
Clasificación del tráfico y garantías de calidad de servicio
Cálculo de las tablas de arbitraje
Reconfiguración de la red
Técnicas mejoradas de reconfiguración para InfiniBand.

:Parallel I/O: Lessons learnt in the last 25 years< /h2> Toni Cortes
Universidad Politécnica de Cataluña.
Departamento de Arquitectura de Computadores
Fecha impartición: 5, 6 y 7 de marzo de 2003.
Horario: de 16 a 20 horas. Duración: 10 horas.
Lugar: Aula 20D10 Edificio Sabatini
Responsable: Jesús Carretero (jcarrete@arcos.inf.uc3m.es)
Escuela Politécnica Superior Universidad Carlos III. Leganés, Madrid

Material del seminario:material-tony.zip

OBJETIVO

En este seminario se analizarán en profundidad los conceptos más importantes de la entrada/salida paralela y su evolución en los últimos años. Además se estudiarán las nuevas técnicas propuestas para computación en clusters y en rejillas.

Programa:
1.Introduction
2.Sequential file systems
3.Network architectures
4.Data placement
5.Caching & prefetching
6.Server architecture
7.Interface
8.Applications

CV del ponente:

Toni Cortés es profesor titular del departamento de Arquitectura de Computadores en la Universidad Politécnica de Cataluña. Obtuvo título de licenciado en informática en 1992 y el de doctor en informática en 1997.

Actualmente, además de sus tareas de investigación y docencia, es vicedecano de relaciones internacionales de la Facultad de Informática de Barcelona y coordinador del area de “single-system Image” de la “IEEE task force” sobre “cluster computing”. El resultado de su tarea investigadora ha producido mas de 25 artículos en congresos y revistas de prestigio internacional, el libro “High Performance Mass Storage and Parallel I/O: Technologies and Applications” y un capítulo sobre temas de entrada/salida en el libro “High Performance Cluster Computing: Architectures and Systems ”.

También participa regularmente como miembro del comité de programa de varios congresos de prestigio internacional en los temas de entrada/salida, sistemas operativos, cluster computing y paralelismo en general. Finalmente, también ha participado en varios proyectos de investigación en cooperación con empresas europeas dentro del marco de proyectos. europeos.

POWER AWARE ARCHITECTURES AND PARALLEL I/O SYSTEMS

Prof. Alok Choudhary
Department of Electrical Computing Engineering
Nothwestern University
Chicago, EE.UU.
Fecha impartición: 17 y 18 de marzo de 2003.
Horario: de 15 a 20 horas.
Duración: 10 horas.
Aula: 20D14 horas.
Lugar: Escuela Politécnica Superior Universidad Carlos III. Leganés, Madrid

Material del seminario: alok-2003.zip

Abstract of the course:

This seminar shos the new trends in high performance computing, including two important new fields: power aware architectures and parallel I/O systems.

Topics:

*Part I. Power Aware Architectures:

1.Power aware Architctures.
2.Power Aware memory Hierarchies.
3.Power Aware Compilation and Optimizations.
4.Synthesis and compilation for Heterogeneous SoC systems
5.Power Aware parallelization for Embedded Systems.

*Part II: Parallel I/O Systems and Trends.

1.Smart-Disk based Storage Archietctures
2.Clusters of Smart-Disk Systems
3.Software structures for Smart Disk based Systems.
4.Parallel File Systems for Clusters
5.Optimizing Parallel I/O for large-scale systems including MPI-IO
6.Scientific Data Management

Short biography of the autor:

Prof. Alok Choudhary got his Ph.D. at the University of Illinois, Urbana-Champaign, in 989. He is currently a full Professor, ECE Department in the Northwestern University, Chicago, USA. He has got several awards, including the NSF Young Investigator Award, in 1993, the IBM Faculty Development Award, in 1994, the Intel Faculty Research Award, in 1993, and the IEEE Engineering Foundation Award, in 1990. His research interest includes compilers and Runtime Systems for High-Performance, embedded and adaptive computing systems and power-aware systems, High-Performance Databases, OLAP and datamining and Parallel and distributed Input-Output for Scientific and Information Processing Applications.

2002

Modelado del comportamiento de sistemas informáticos y de comunicaciones

Ramon Puigjaner
Universidad de las Islas Baleares
Fecha impartición: 11, 12 y 13 de noviembre de 2002.
Horario: de 16 a 20 horas. Duración: 10 horas.
Lugar: Aula 20D14 Edificio Sabatini
Responsable: Jesús Carretero (jcarrete@arcos.inf.uc3m.es)
Escuela Politécnica Superior Universidad Carlos III. Leganés, Madrid

Material del seminario:modelado.zip

OBJETIVO

Este curso pretende dar una visión de que se entiende por modelar el comportamiento de un sistema informático o de comunicaciones. Para ello se revisan variables (datos e incógnitas) luego se describe la forma en que pueden construirse modelos que representen el comportamiento dinámico de los sistemas informáticos y de comunicaciones.

Program:
1.INTRODUCCIÓN
2.NECESIDAD Y CONCEPTO DE LA EVALUACIÓN DEL COMPORTAMIENTO DE UN SISTEMA INFORMÁTICO
3.VARIABLES
3.1.Del comportamiento
3.2.De la carga
3.3.De control
4.Herramientas: Modelos del comportamiento
4.1.Revisión de la teoría de colas
4.1.1.Procesos de nacimiento-muerte
4.1.2.Colas M/M/n/K/N
4.1.3.Colas M/G/1
4.1.4.Colas G/G/1: Aproximación por difusión
4.1.5.Colas con prioridades
4.1.6.Cola de Skinner

4.2.Modelos locales de comportamiento
4.2.1.Tambores
4.2.2.Discos
4.2.3.Subsistemas secuenciales
4.2.4.CPU
4.2.5.Memoria
4.2.6.Sistemas de comunicaciones

4.3.Modelización global del comportamiento: Teoría de redes de colas
4.3.1.Teorema de BCMP
4.3.2.Métodos de cálculo
4.3.3.Métodos aproximados
4.3.3.1.Difusión
4.3.3.2.Descomposición-agregación
4.3.3.3.Iterativos

4.4.Modelización global del comportamiento: Simulación
4.4.1.Generación de números aleatorios
4.4.1.1.Números aleatorios uniformes
4.4.1.2.Números aleatorios según otras distribuciones
4.4.1.3.Tests de validez de las secuencias de números aleatorios
4.4.2.Organización general del simulador
4.4.3.Determinación de la calidad de los resultados: Intervalos de confianza
4.4.3.1.Métodos de las repeticiones y de las medias de los lotes
4.4.3.2.Método regenerativo
4.4.3.3.Método espectral

4.5.Estudio de casos
4.5.1.Modelización del comportamiento de sistemas informáticos: Tratamientos analíticos y por simulación
4.5.2.Modelización del comportamiento de sistemas teleinformáticos: Tratamientos analíticos y por simulación

5.Conclusión

Currículum Vitae del ponente

Catedrático de Universidad de Arquitectura y Tecnología de Computadores del Departamento de Ciencias Matemáticas e Informática de la Universidad de las Islas Baleares y Director de la Escuela Politécnica Superior. Es Doctor Ingeniero Industrial y Licenciado en Informática.

Su interés investigador actual se centra en la evaluación del comportamiento de sistemas informáticos y de comunicaciones y la difusión de estas técnicas en el ámbito industrial, principalmente en el ámbito de los sistemas de tiempo real, de los sistemas concurrentes y de los sistemas distribuidos.

Es autor de un libro sobre evaluación de prestaciones y de más de un centenar trabajos entre capítulos de libros, artículos en revistas y presentaciones (evaluadas y publicadas) en congresos.

Quality of Service (QoS) in the Internet: Technologies and Trends

Univ.-Prof. DI Dr. Hermann HELLWAGNER
Dept. of Information Technology
University Klagenfurt
Klagenfurt, Austria
Fecha impartición: 20 – 22 Febrero de 2002
20 Feb: 4 horas; 21 Feb: 3 horas; 22 Feb: 3 horas.
Horario: de 16 a 20 horas.
Duración: 10 horas.
Lugar: Escuela Politécnica Superior Universidad Carlos III. Leganés, Madrid
AULA: 20D10. Edificio Sabatini.

Material del seminario: qos.zip

Short biography of the author:

Hermann Hellwagner received his Dipl.-Ing. degree (in Informatics) and Ph.D. degree (Dr. techn.) in 1983 and 1988, respectively, both from the University Linz, Austria.

From 1989 to 1994, he was senior researcher and team/project manager at Siemens AG, Corporate Research and Development, München, Germany, working on distributed shared memory, parallel file systems, and performance analysis of computer and communication systems. From 1995 to 1998, he was associate professor of parallel computer architecture at Technische Universität München (TUM) where he led a group of researchers working on compute clusters and lightweight protocols and communication libraries based on the high-performance Scalable Coherent Interface (SCI) system area network. Since late 1998, Dr. Hellwagner has been a full professor of computer science in the Department of Information Technology at the University Klagenfurt, Austria. His current areas of interest are multimedia communication, cluster computing, embedded systems, and hardware/software interaction. Current projects are on digital video communication and adaptation and a high-end thin client specifically targeted at CAD applications.

Dr. Hellwagner is co-editor of a book (on SCI) in the Springer LNCS State-of-the-Art Survey series, (co-)editor of five workshop proceedings, author of seven book chapters, and (co-)author of about 40 conference and journal papers and of several technical reports and project reports. He is Subject Area Editor for Computer Architecture of the Journal of Systems Architecture (JSA). He initiated two annual international workshop series (HIPS and SCI-Europe), and has served as a program committee member for several international conferences (recently, for FTPDS’2001, EBP’01, Cluster’2001, NCA’01, and CCGrid’2001) and a reviewer for several journals and many conferences.

Dr. Hellwagner is a member of IEEE, GI (German Informatics Society), and OCG (Austrian Computer Society). He is also the head of the Austrian delegation to the ISO/IEC MPEG standardization group.

Abstract of the course:

Quality of Service (QoS) mechanisms become increasingly important in computer and communication networks, both for the transmission of multimedia data (e.g., audios and videos, with real-time constraints) and for business-critical data (e.g., transactions in e-commerce systems, with high-reliability requirements). In recent years, intense research and standardization activities have been carried out to establish QoS mechanisms and technologies for the (future) Internet which, by way of its original design and evolutionary growth, provides best-effort data transfers only. This seminar will give a motivation for Internet QoS, present the principal technologies and protocols devised and standardized by the IETF to provide QoS guarantees, and discuss the current status and potential trends of QoS mechanisms in IP-based networks. A case study will also be discussed.

Topics:
1. Motivation for Internet Qos
2. QoS Principles and Terminology (definitions, requirements, parameters,
specification, negotiation, resource reservation and management, traffic
shaping and policing,…)
3. QoS Architectures
4. Queueing Techniques for QoS
5. Integrated Services (IntServ), Resource Reservation Protocol (RSVP)
6. Differentiated Services (DiffServ)
7. Multiprotocol Label Switching (MPLS)
8. Protocols for Real-Time Data Transfers (RTP, RTCP, RTSP)
9. Case Study: Internet Telephony
10. Discussion: Status and Potential Trends

Prerequisites of students:
The students are expected to have a working knowledge of IP-based networks and the TCP/IP protocol family.

References:
John Barnes, Programming in Ada 95, 2nd. Ed, Addison-Wesley, 1998.

High-performance OLAP and Data Mining Systems,Techniques and Applications<

Prof. Alok Choudhary
Department of Electrical Computing Engineering
Nothwestern University
Chicago, EE.UU.
Fecha impartición: 20 y 21 de marzo de 2002.
Horario: de 16 a 21 horas.
Lugar: Escuela Politécnica Superior Universidad Carlos III. Leganés, Madrid
Edificio Torres Quevedo.
Aula: 40F16.

Material del seminario: alok.zip

Short biography of the autor:
Prof. Alok Choudhary got his Ph.D. at the University of Illinois, Urbana-Champaign, in 989. He is currently a full Professor, ECE Department in the Northwestern University, Chicago, USA. He has got several awards, including the NSF Young Investigator Award, in 1993, the IBM Faculty Development Award, in 1994, the Intel Faculty Research Award, in 1993, and the IEEE Engineering Foundation Award, in 1990. His research interest includes compilers and Runtime Systems for High-Performance, embedded and adaptive computing systems and power-aware systems, High-Performance Databases, OLAP and datamining and Parallel and distributed Input-Output for Scientific and Information Processing Applications.

Abstract of the course:
OLAP and data mining are integral parts of any decision support process. Yet, to date, most OLAP systems have focused on providing “access” to multi-dimensional data, while data mining systems have dealt with “influence analysis” of data along a single dimension. In this article, I show that OLAP and data mining should not remain separate components of decision support, but should be fully merged – they are inherently related activities that re-inforce (and desperately need) each other. This course focuses on both topics and their relations, specifically to deal with Large-Scientific datasets.

Topics:
1.Data Mining
2.On-Line-Analytical Processing
3.Data Warehousing (basic Design and Design for E-commerce Click stream)
4.Parallel OLAP
5.Parallel Data Mining
6.High-Performance Datawarehousing
7.Applications of the above technologies in various domain
8.New Approaches to dealing with Large-Scientific datasets
9.Large-scale Scientific data analysis
10.Applications

Router para tráfico multimedia

Prof. Francisco José Quiles
Departmento de Informática
Universidad de Castilla-La Mancha
Albacete. España.
Fecha impartición: 7 y 8 de marzo de Marzo de 2002.
Horario: de 15:30 a 20 horas.
Duración: 10 horas.
Lugar: Escuela Politécnica Superior. Aula: 20D10 Universidad Carlos III. Leganés, Madrid
Material del seminario:quiles.zip
Breve biografía del autor:
El Prof. Francisco José Quiles Flor es Catedrático de Escuela Universitaria en el Área de Conocimiento: Arquitectura y Tecnología de Computadores. Imparte docencia e investiga en temas realacionados con la Arquitectura e Ingeniería de Computadores, Arquitecturas no Clásicas y Redes de Altas Prestaciones. Su principal tema de interés en investigación es el de encaminadores para tráfico multimedia. Actualmente ocupa el cargo de Vicerrector de Investigación en la Universidad de Castilla La Mancha.

Resumen del curso:
En este seminario se realiza un estudio del estado del arte en el diseño de encaminadores orientados al tráfico multimedia, repasando uno a uno todos los aspectos que se deben tener en cuenta para el diseño de estos encaminadores, teniendo en cuenta las restricciones que impone este tipo de tráfico. Centrándonos en las características más apropiadas para entornos de área local. Se analizan no sólo la evaluación de prestaciones de cada una de las soluciones, sino también la incidencia que un determinado aspecto puede tener en la complejidad del circuito resultante. Finalizando con un ejemplo práctico de arquitectura orientada al tráfico multimedia y analizando las consecuencias de la nueva arquitectura InfiniBand.

Abstract:
1.Estado del arte
2.Diseño de encaminadores para multimedia
3.Soluciones existentes
4.Evaluación de prestaciones
5.Complejidad de los circuitos
6.Arquitecturas para tráfico multimedia
7.Ejemplo práctico
8.Incidencia de InfiniBand

Tool Sharing in Multimedia Collaborative Applications

 

Prof. Hussein Abdel-Wahab
Department of Computer Science
Old Dominion University
Norfolk, Virginia, EE.UU.
Fecha impartición: 22-24 de Abril de 2002.
Horario: de 16 a 20 horas.
Duración: 10 horas.
Lugar: Escuela Politécnica Superior. Edificio Sabatini. Aula 20D10, Universidad Carlos III. Leganés, Madrid

Material del seminario:madridseminar.zip

Short Biography of the speaker:

Hussein Abdel-Wahab received the Ph.D in 1976 and the MS in 1973 both from the University of Waterloo in Computer Communications and the BS in Electrical Engineering from Cairo University in 1969. Currently he is a full professor of computer science at Old Dominion University. In addition he is an adjunct professor of computer science at the University of North Carolina at Chapel Hill and a faculty at the Information Technology Lab of the National Institute of Standards and Technology. Prior to that he held faculty positions at North Carolina State University, the University of Maryland and Rochester Institute of Technology. He served as a consultant to many organizations including IBM, MCNC and MITRE Corp. He is the principle investigator in designing and implementation of XTV, a pioneer X-window based Teleconferencing system. His main research interests are collaborative desktop multimedia conferencing systems, and real-time distributed information sharing. His research has been supported by NSF, ONR, IBM, MCNC, MITRE, ARPA among others. He is a senior member of IEEE Computer Society and a member of the Association for Computing Machinery.

Abstract of the course:
Increased desktop processing power and network bandwidth have made feasible distributed multimedia collaborative systems. Such systems are characterized by video, audio and data exchanges. While there has been much research and development of protocols and services for video and audio transmission, less work has been focused on data sharing particularly when the data is being generated by an application in real time and in turns controlled by one or more of the participants in the collaborative session. This series of seminars describes the principles, protocols and implementation for sharing desktop applications in a distributed collaborative session. Examples of such systems are X Teleconferencing and Viewing (XTV) and Java Collaborative Environment (JCE) which have been implemented at Old Dominion University will be described in these series of seminars.

Topics:

1. Introduction to sharing desktop applications
2. Principles of sharing desktop applications
3. Protocols for sharing desktop applications in a distributed collaborative session
4. Implementation of sharing desktop applications in a distributed collaborative session
5. Examples: X teleconferencing and Viewing (XTV) and Java Collaborative Environment (JCE)

2001

Sistemas de Tiempo Real

Docentes: Juan Antonio de la Puente y Alejandro Alonso
Universidad Politécnica de Madrid
Fecha impartición: 17-19 de Enero de 2001.
Horario: de 16 a 20 horas (Días 17 y 18). 16 a 18 horas (Día 19).
Duración: 10 horas.
Lugar: Aula 20D14 Edificio Sabatini Escuela Politécnica Superior Universidad Carlos III. Leganés, Madrid

Material del seminario:PROGRAMA y MATERIAL DEL SEMINARIO

Objetivos:
Los sistemas informáticos de tiempo real se utilizan en numerosos campos de aplicación, tales como el control de aviones, automóviles y trenes, tráfico, comunicaciones, satélites, control de procesos, electrónica de consumo, etc. La característica más importante de estos sistemas es que sus acciones se deben ejecutar en intervalos de tiempo determinados por la dinámica de los sistemas físicos que supervisan o controlan. Además, suelen tener requisitos estrictos de fiabilidad y seguridad.
Muchos de estos sistemas están empotrados en otros sistemas, lo que conlleva una limitación de recursos (potencia de procesador, memoria, etc.) con respecto a otros tipos de sistemas informáticos. En la mayoría de los casos, además, deben ejecutar varias tareas concurrentemente. Estas características, en conjunto, hacen que la construcción de sistemas de tiempo real presente características específicas respecto a otros tipos de sistemas informáticos.
El curso trata además aspectos de sistemas distribuidos de tiempo real.

Temario

1.Introducción a los Sistemas de Tiempo Real
2.Programación de Sistemas de Tiempo Real: Introducción a C y Ada
3.Sistemas Cíclicos
4.Sistemas Multiprogramados
5.Planificación de Tareas
6.Comunicación y Sincronización
7.Programación de bajo nivel
8.Sistemas Distribuidos
9.Diseño de Sistemas de Tiempo Real
10.Aplicaciones

Bibliografía:

Alan Burns & Andy Wellings, Real-Time Systems and Programming Languages, 2nd ed., Addison-Wesley, 1996. ISBN 0-201-40365-X
Hermann Kopetz, Real-Time Systems. Design Principles for Distributed Embedded Applications, Kluwer, 1997. ISBN 0-7923-9894-7.
John Barnes, Programming in Ada 95, 2nd. Ed, Addison-Wesley, 1998.

2000

Evaluación del Comportamiento de Sistemas Informáticos y de Comunicaciones

Ramon Puigjaner
Universidad de las Islas Baleares
Fecha impartición: 4 y 5 de Diciembre de 2000.
Horario: de 15 a 20 horas. Duración: 10 horas.
Lugar: Aula 20D14 Edificio Sabatini
Escuela Politécnica Superior, Universidad Carlos III. Leganés, Madrid

Material del seminario: evaluacion.html

OBJETIVO
Este curso pretende dar una visión de lo que se entiende por evaluar el comportamiento de un sistema informático o de comunicaciones. Para ello se revisan variables (datos e incógnitas) que hay que manipular y las distintas herramientas (monitores, benchmarks y modelos) que pueden utilizarse para lograr el fin deseado según cual sea el objetivo del estudio y el entorno de trabajo del sistema.

Programa
1.INTRODUCCIÓN
2.NECESIDAD Y CONCEPTO DE LA EVALUACIÓN DEL COMPORTAMIENTO DE UN SISTEMA INFORMÁTICO
3. ENTORNOS DE EVALUACIÓN DEL COMPORTAMIENTO
3.1. Según la forma de trabajo
3.2. Según el objetivo perseguido
4. VARIABLES
4.1. Del comportamiento
4.2. De la carga
4.3. De control
5.HERRAMIENTAS: MONITORES
5.1. Formas de medición
5.2. Características de los monitores
5.3. Tipos de monitores
5.4. Presentación de resultados
5.5. Monitores de redes locales
6. Herramientas: Modelos de la carga (benchmark)
6.1. Representatividad de los modelos de la carga
6.2. Formas de los modelos de la carga
6.3. Construcción de modelos de la carga
6.4. Realización práctica de benchmarks
6.5. Revisión de los benchmarks estándar
7. MODELADO: aNÁLISIS OPERACIONAL
7.1. Variables y leyes operacionales
7.2. Análisis de cuellos de botella
7.3. Ejemplos
8. CONCLUSIÓN: REVISIÓN DEL PUNTO 3 Y DISCUSIÓN

Sistemas Tolerantes a Fallos (STF)

Docentes: Pedro Gil y Juan José Serrano
Universidad Politécnica de Valencia
Fecha impartición: 5 de Junio de 2000.
Duración: 10 horas.

MATERIAL DE SEMINARIO.

Objetivos:
* Conocer los conceptos y terminología básicos referentes a la garantía de funcionamiento[1] o confiabilidad ( fiabilidad, seguridad-inocuidad, seguridad-confidencialidad, disponibilidad, mantenibi-lidad, etc.) de los sistemas informáticos.
* Conocer y comprender las técnicas de redundancia (mecanismos de tolerancia a fallos), tanto a nivel físico como lógico, que permiten diseñar sistemas de funcionamiento garantizado.
* Conocer las arquitecturas básicas de los STF, en sistemas monoprocesadores, multiprocesadores y distribuidos.
* Estudiar las técnicas de modelado y evaluación de la garantía de funcionamiento de los sistemas tolerantes a fallos.
* Conocer ejemplos de sistemas tolerantes a fallos comerciales, así como sus principales campos de aplicación: Satélites espaciales, aviónica, medicina, comunicaciones, banca, comercio electrónico

Título:Temario
Tema 1 : Introducción a la garantía de funcionamiento. Definiciones fundamentales:
1.1.- Definición de la garantía de funcionamiento.
1.2.- Necesidad de los sistemas con alta garantía de funcionamiento. Atributos de la garantía de funcionamiento.
* Fiabilidad , Seguridad – inocuidad, Seguridad – confidencialidad, Disponibilidad, Mantenibilidad.
1.3.- Árbol de la garantía de funcionamiento.
1.4.- Causas de la disminución de la garantía de funcionamiento.
* Fallos.
* Errores.
* Averías.
* Patología de los fallos
1.5.- Medios para obtener cierta garantía de funcionamiento:
* Prevención de fallos
* Tolerancia a fallos.
1.7.- Medios para la validación de la garantía de funcionamiento
* Eliminación de fallos.
* Predicción de fallos.
Tema 2.- Técnicas de redundancia:
2.1. Técnicas de redundancia en la información:
* Introducción a los códigos detectores y correctores de errores.
* Códigos de paridad.
* Sumas de prueba.
* Códigos m de n.
* Códigos cíclicos. CRCs
* Códigos aritméticos.
* Códigos correctores de errores de Hamming.
2.2. Técnicas de redundancia en el hardware:
* Introducción.
* Redundancia pasiva. Principios básicos.
* Redundancia activa. Principios básicos.
* Redundancia híbrida.
2.3. Técnicas de redundancia en el software:
* Introducción.
* Redundancia temporal
* Redundancia en el software para detección de fallos aleatorios
* Mecanismos de tolerancia a fallos de diseño en el software.
* Tolerancia a fallos en el Sistema Operativo.
Tema 3.- Arquitectura de los sistemas tolerantes a fallos:
3.1.- Sistemas monoprocesadores tolerantes a fallos:
* Detección de errores por el propio microprocesador.
* Detección de errores por control del flujo del programa.
* Recuperación de los errores en sistemas monoprocesador.
3.2.- Sistemas multiprocesadores tolerantes a fallos.
* Introducción.
* Sistemas con redundancia estática.
* Sistemas con redundancia dinámica o “standby”.
* Sistemas de detección de errores no estándares.
* Recuperación de los errores sistemas multiprocesador.
3.3.- Sistemas distribuidos tolerantes a fallos.
* Introducción.
* Comunicaciones fiables.
* Procesadores con parada tras la avería
* Arquitecturas de sistemas distribuidos tolerantes a fallos.
* Sistemas de detección de errores no estándares.
* Recuperación de los errores sistemas distribuidos.
Tema 4.- Modelado y evaluación de los sistemas tolerantes a fallos:
4.1 Introducción.
4.2 Funciones para la evaluación de STFs.
4.3 Cálculo de la tasa de fallos y de la tasa de reparación.
4.4 Técnicas de modelado.
* Modelos combinatorios.
* Cadenas de Markov.
4.5 Modelado con coberturas.
4.6 Modelos de Markov.
* Modelos para la fiabilidad.
* Modelos para la seguridad.
* Modelos para la disponibilidad.
4.7 Ejemplos de modelado y evaluación teórica.
4.8 Introducción a la validación experimental de STFs: Inyección de fallos.
Tema 5.- Aplicaciones y ejemplos de sistemas tolerantes a fallos:
5.1 Sistemas de larga vida. Satélites espaciales.
* STAR (Self Testing And Repairing Computer)
* Sistema de la sonda espacial Voyager
* Sistema de la sonda espacial Galileo
5.2 Sistemas críticos. Aviónica, industrias peligrosas.
* Sistema del Space Shuttle
* Sistema flying by wire de los Airbus
5.3 Sistemas de alta disponibilidad.
* Tandem NonStop Cyclone
* Stratus XA/R serie 300
* Sequoia Serie 400
Bibliografía:
[Arlat 96] J. Arlat y otros, coordinados por J. C. Laprie:“Guide de la sûreté de fonctionement”. Ed. Cépaduès editions, Toulouse, Francia, 1996.
[Johnson 89] B. W. Johnson: Design and analysis of fault tolerant digital systems. Ed. Addison–Wesley, 1989
[Gil96] P. J. Gil: Garantía de funcionamiento, conceptos básicos y terminología. Informe interno, DISCA–GSTF, 1996
[Laprie92] J. C. Laprie: Dependable computing: Basic concepts and terminology: in english, french, german, italian and japanese. Ed. Springer–Verlag, 1992
[Pradhan86] D. K. Pradhan: Fault tolerant computing: Theory and techniques; vol. 1 y 2. Ed. Prentice Hall, 1986
[Pradhan96] D. K. Pradhan: Fault-Tolerant Computer System Design. Ed. Prentice Hall, 1996
[Siewiorek92] D.P. Siewiorek, R. S. Schwarz: Reliable computer systems: Design and evaluation (2nd. Edition). Ed. Digital Press, 1992
[1] En inglés “Dependability”.