• Aucun résultat trouvé

PELOPS makes driving easier

N/A
N/A
Protected

Academic year: 2021

Partager "PELOPS makes driving easier"

Copied!
84
0
0

Texte intégral

(1)

Inf

o

rmatik

Inf

o

rmati

o

(2)
(3)

TH

E

M

EN

2

/2006

3

Impressum Herausgegeben im Auftrag des Rektors: Dezernat Presse- und Öffentlichkeitsarbeit der RWTH Aachen Templergraben 55 52056 Aachen Telefon 0241/80-94327 Telefax 0241/80-92324 Pressestelle@zhv.rwth-aachen.de www.rwth-aachen.de Redaktion: Sabine Busse Angelika Hamacher Verantwortlich: Toni Wimmer Titel: Interaktive Visualisierung einer GYRO Blutpumpe in der CAVE der RWTH Aachen. Die Simulation wurde am Lehrstuhl für Computergestützte

Analyse Technischer Systeme durchgeführt. Rücktitel oben: Einsatz von Augmented Reality zur Unterstützung eines Technikers

bei der Durchführung komplexer Serviceeinsätze. Rücktitel unten: Mitarbeiter des Lehrstuhls für Theoretische Informationstechnik bei derBesprechung von Seitenkanalattacken auf eine kryptographische Chipkarte. Durch Messung des Stromverbrauchs wird auf die Berechnungendes Prozessors

zurückgeschlossen und der geheime Schlüssel ermittelt.

Fotos: Peter Winandy Anzeigen: print´n´press, Aachen jh@p-n-p.de Art direction: Klaus Endrikat Satz: ZAHRENDesign, Aachen Druck: printproduction, Aachen Gedruckt auf chlorfrei gebleichtem Papier. Das Wissenschaftsmagazin „RWTH-Themen” erscheint einmal pro Semester. Nachdruck einzelner Artikel, auch auszugsweise, nur mit Genehmigung der Redaktion. Für den Inhalt der Beiträge sind die Autoren verantwortlich.

Wintersemester 2006

Informatik und Informationstechnik verändern das Leben 6

Digitale Bildanalyse ermöglicht neue Methoden der Krebsdiagnostik 8

Modellfabrik macht Automatisierungstechnik erlebbar 12

Minimalinvasiver Eingriff statt großer Herzoperation 15

Spezialisten statt Alleskönner 16

Überall mobil telefonieren 20

B-IT: Angewandte Informatik international 24

Mehr als Real 26

SFB 476: Unterstützung übergreifende Entwicklungsprozesse in der Verfahrenstechnik 28

Bild, Video, Kino – alles wird digital 30

Softwarefehler mit Hilfe von mathematisch-logischen Methoden finden 34

Roboterfußball – Wissenschaft, die Spaß macht 36

Es liegt was in der Luft 40

Studium 2010 – eLearning wird Realität 44

Was können Informatiker von Ameisen lernen? 46

DFG-Graduiertenkolleg „Algorithmische Synthese reaktiver

und diskret-kontinuierlicher Systeme“ 50

PELOPS macht das Fahren leichter 52

Graduiertenkolleg „Software für mobile Kommunikationssysteme“ 56

Computer helfen besser durchzuatmen 58

Exzellenz der RWTH Aachen bestätigt 62

Der Masterstudiengang Software Systems Engineering 64

Clustering für Fließgewässer 66

REXplorer: Mit dem Zauberstab ins Mittelalter 70

Der Masterstudiengang „Communications Engineering“ 76

Namen und Nachrichten 78

Inf

o

rmatik

Inf

o

rmati

o

ns-technik

(4)

TH

E

M

EN

2

/2006

4

Vo

rw

o

rt

vorantreiben. In Aachen sind dies insbesondere

die Graduiertenschule und der Cluster „Ultra

High-Speed Mobile Information and Communication“.

Die erfolgreichen Bewilligungen werden Ihnen in

dieser Ausgabe kurz vorgestellt. Die Ausgabe 1/07

der „RWTH-Themen“ wird Sie dann ausführlich

über die Projekte informieren.

Das Forum Informatik, ein interdisziplinärer

Zusammenschluss von Wissenschaftlerinnen und

Wissenschaftlern aus unterschiedlichen Fakultäten

der RWTH Aachen, hat die vorgestellten Projekte

ausgewählt, die beispielhaft die Breite der

For-schungspalette wiedergeben. Interdisziplinäre

Zusammenarbeit zwischen den Fakultäten ist ein

Kennzeichen herausragender Forschungsleistung

der Aachener Hochschule. Nicht zufällig fanden

sich daher im Forum Informatik 80

Wissenschaft-lerinnen und Wissenschaftler zusammen, die ihre

Interessen gemeinsam wahrnehmen wollen. Eng

vernetzt sind die Mitglieder insbesondere im

Vir-tual Reality Center Aachen und der eLearning AG

des Forums. Außerdem bestehen über den in

An-lehnung an das Forum gegründeten Regionalen

Industrieclub Informatik, REGINA, e.V. gute

Kon-takte zur regionalen IT-Branche.

Eine spannende Lektüre wünscht Ihnen

Univ.-Prof. Dr. Burkhard Rauhut

Die Graduiertenschule „Aachen Institute für

Advanced Study in Computational Engineering

Science“ und die beiden Exzellenzcluster „Ultra

High-Speed Mobile Information and

Communica-tion“ sowie „Integrative Production Technology

for High-Wage Countries“ sind erfolgreich im

Rahmen der Exzellenzinitiative der

Bundesregie-rung und der Länder bewilligt worden. Mit 14

Millionen Euro pro Jahr sichert die

Exzellenzinitia-tive für die nächsten fünf Jahre die

wissenschaftli-che Arbeit und Ausbildung in diesen drei Bereiwissenschaftli-chen

der RWTH Aachen.

Aber nicht nur finanzielle Mittel sind heute

wichtige Voraussetzung – auch die Entwicklungen

der Informatik und Informationstechnik sind

ent-scheidend. Entwicklungen aus diesem Bereichen

prägen heute den Alltag und die Arbeitswelt aller

Menschen. Was vor einigen Jahren nur in

Hoch-schulen, Forschungsinstituten und

Entwicklungs-abteilungen genutzt wurde, ist heute jedermann

zugänglich. Die vorliegende Ausgabe der

„RWTH-Themen“ stellt aktuelle Forschungsprojekte aus

dem Bereich Informatik und Informationstechnik

vor, von denen einige in wenigen Jahren

allge-mein verfügbar sein werden. Auch die Arbeiten

der erfolgreichen Anträge der Exzellenzinitiative

werden die Entwicklung in diesem Bereich weiter

(5)
(6)

Otto Spaniol

enz tut also not. Aber wie das solche Zusammenflüsse nun einmal an sich haben: Beide Partner gewinnen zwar viel, aber sie verlieren auch ein Stück ihrer Identität.

An einer traditionsreichen Lehr- und Forschungsstätte wie der RWTH Aachen kommen – als hätten Informatik und Infor-mationstechnik nicht schon ge-nug mit sich selbst zu tun – noch die quasi übermächtigen anderen (vorwiegend techni-schen) Fachbereiche hinzu, die selbstverständlich das Ausmaß ebenso wie die Notwendigkeit des Einsatzes informatischer Konzepte sehr frühzeitig er-kannt und umgesetzt haben – manchmal früher als die Infor-matik/Informationstechnik selbst! Wer oder was prägt also die Landschaft zwischen Infor-matik, Informationstechnik und zum Beispiel Maschinenwesen – von weiteren maßgeblichen Institutionen wie Medizin, Psy-chologie, Betriebswirtschaft,... einmal ganz abgesehen?

Um das vorhersehbare Cha-os der Entwicklung des Bereichs „Informatik/Informationstech-nik“ in Lehre und Forschung nicht beliebig ausufern zu las-sen, wurde im Jahre 1988 an der RWTH das Forum Informa-tik gegründet, das laut seiner Satzung „der Bündelung der Aktivitäten auf den Gebieten Informatik/Informationstechnik und ihrer Anwendungen die-nen, mit Forschungs- und Ent-wicklungsinstituten, Behörden, Verbänden und der Industrie zusammenarbeiten und zur Pflege der Außendarstellung der Informatik an der RWTH Aachen beitragen soll“. Inwie-weit das nach fast zwanzig Jah-ren als gelungen bezeichnet werden kann, darüber gehen die Meinungen vielleicht aus-einander, aber diverse Initiati-ven haben unzweifelhaft prä-gende Wirkung auch für die RWTH als Ganzes gehabt. Hier-unter zählen vornehmlich die Etablierung des DFG-Sonder-forschungsbereichs 476 und des anschließenden Transfer-bereichs TR 61 zum Thema IMPROVE – „Informatische Methoden übergreifender

Ent-wicklungsprozesse in der Ver-fahrenstechnik“ – sowie die Einwerbung von immerhin drei Graduiertenkollegs zu den The-men „Informatik und Technik“, „Software für mobile Kommu-nikationssysteme“ und „Algo-rithmische Synthese reaktiver und diskret-kontinuierlicher Sys-teme“. Ein besonders erfolgrei-cher Schachzug war die Grün-dung von REGINA e.V., kurz für Regionaler Industrie-Club Informatik Aachen. Hier wird nicht nur die Kompetenz fast aller namhaften Informatikfir-men der Region gebündelt, sondern auch die Kooperation derselben mit den IT-Forschungs-einrichtungen der RWTH erleich-tert und gefördert.

Die vorliegende Ausgabe der „RWTH-Themen“ will eine Leistungsschau der Informatik/ Informationstechnik an der RWTH liefern. Hiermit soll das Vorwort abgeschlossen sein (bekanntlich liest sowieso nie-mand ein Vorwort). Trotz der vermutlich leeren Menge an Vorwortlesern wünsche ich den RWTH Themen eine gute Re-zeption. Möge es gegenüber seinen Vorgängern bestehen und gleichzeitig die Messlatte für seine Nachfolger sehr hoch legen. Das ist ein Wunsch, der einen Smiley verdient ;-).

Autor:

Univ.-Prof. Dr. rer. nat. Otto Spaniol ist Inhaber des Lehrstuhls für Informatik 4 (Kommunikation und Verteilte Systeme) und Sprecher des Forums Informatik.

www.informatik.rwth-aachen.de www.rwth-aachen.de/fi

Informatik und Informationstechnik

verändern das Leben

Lehre und Forschung an

der RWTH Aachen

TH

E

M

EN

2

/2006

E

Eine Ausgabe der „RWTH-The-men“ zum Schwerpunkt „Infor-matik/Informationstechnik“ ist eigentlich längst überfällig. Zu-mindest wenn man sich verge-genwärtigt, welche Auswir-kungen auf das tägliche Leben die „Produkte“ dieser beiden Disziplinen haben. Etwa der Personal Computer, die iPods, die GPS-Lokalisierung, Google oder das Mobiltelefon, um nur wenige Beispiele zu nennen. Wir erleben eine Veränderung der Lebensumstände durch Konzepte der Informatik/Infor-mationstechnik, die mit den durch Buchdruck, Dampfma-schine oder Rundfunk/Fernse-hen ausgelösten Revolutionen durchaus vergleichbar ist. In mancher Hinsicht dürfte das Ausmaß der Umwälzungen so-gar größer sein. Und es ist kein Ende dieser Entwicklung er-kennbar.

Allerdings: Handelt es sich bei informatisch/informations-technischen Produkten lediglich um „Entwicklungen“, für wel-che die Zeit sowieso reif war oder stecken langfristige „seriö-se“ wissenschaftliche Konzepte dahinter? Diese Frage wird sehr unterschiedlich beantwortet – je nach dem Blickwinkel oder auch dem (Vor?)-Urteil des Be-trachters. Die Informatik be-zieht ja ihre Vaterschaft in merklichem Umfang aus der Mathematik, weshalb es (wie bei echten familiären Beziehun-gen) nicht selten vorkommt, dass manche Väter die Kinder häufig etwas argwöhnisch und (über?)-kritisch betrachten. Die Informationstechnik wiederum begründet ihre Existenz vorwie-gend auf Technik, Elektronik und so weiter. Womit bereits ein Konflikt zwischen Informa-tik und Informationstechnik be-züglich der Denkkulturen (eher technisch oder doch mehr ma- thematisch-naturwissenschaft-lich geprägt?) vorprogrammiert ist. Aber trotz solcher Schar-mützel – zum Beispiel die Fra-ge, ob es „wertvoller“ ist, zum Dr.rer.nat. oder zum Dr.-Ing. zu promovieren – sind die generel-len Ziele beider Disziplinen doch in vieler Hinsicht diesel-ben. Konvergenz oder

Konflu-6

(7)
(8)

Til Aach, André Bell, Alfred Böcking, Dietrich Meyer-Ebrecht, Timna Schneider, Thomas Würflinger

einer Reihe von Transformatio-nen des Erbgutes, der DNS, die unter anderem zu einer patho-logisch gesteigerten Zelltei-lungsrate sowie zur Störung des Gleichgewichtes zwischen Zell-teilung und Zelltod führen. Die Zytopathologie verfügt über ei-ne Vielzahl von Analysemetho-den, um in mikroskopischen Präparaten Tumorzellen und deren Vorstufen zu entdecken und bezüglich des Tumortyps zu klassifizieren. Analysiert wer-den hier nicht nur die Form des Zellkerns und des ihn umge-benden Zytoplasmas, sondern auch Zellkerneigenschaften wie DNS-Gehalt, Chromatinmuster oder das Vorhandensein be-stimmter Kernproteine. Hinzu kommen so genannte immun-zytochemische Marker, die das Auftreten von für den Tumor-typ spezifischen Proteinen sig-nalisieren. Mit diesen Metho-den können bösartige Tumore auf Zell- und Zellkernebene um Monate bis Jahre früher als mit allen anderen Methoden ent-deckt und oft auch präzise be-züglich der notwendigen The-rapiemaßnahmen eingeordnet werden. Die Gewinnung zyto-logischer Präparate ist zudem kaum mit Unannehmlichkeiten, Schmerzen oder gar den Risi-ken eines blutigen Eingriffs ver-bunden: Untersuchungsmaterial wird mittels Abstrichen von Schleimhäuten, als Sediment aus Körperflüssigkeiten oder als

Punktat mit einer sehr feinen Nadel aus den inneren Orga-nen gewonOrga-nen.

Die zytopathologische Diag-nostik stützt sich heute weitge-hend auf eine visuelle Inspekti-on der Zellpräparate unter dem Mikroskop. Hierfür ist ein lang-jähriges Training erforderlich. Für breit angelegte Vorsorprogramme steht derart ge-schultes Fachpersonal jedoch nicht im ausreichenden Umfang zur Verfügung. Ziel unserer Ar-beit ist es deshalb, ein maschi-nelles, digitales Bildauswerte-verfahren zur quantitativen Zell-analyse zu entwickeln, das die-se Lücke schließen kann. Ein weiterer positiver Effekt für die diagnostische Qualität ist, dass quantitative Verfahren in ihrer Interpretation weit weniger in-ter- und intraindividuellen Schwankungen unterworfen sind als eine rein visuelle, sub-jektive Bildinspektion.

Diesen Weg geht ein schon über Jahre bekanntes Verfah-ren, das jetzt mit moderner Bildverarbeitungstechnik und verbesserten Algorithmen – vor allem als Kernelement der un-ten beschriebenen Multimoda-len Zellanalyse – an Bedeutung gewinnt: die DNS-Bildzytome-trie, Bild 1. Als Indikator für die Transformation zu einer Krebs-zelle dient der DNS-Gehalt im Zellkern. Belegt wird die Kausa-lität zwischen Veränderungen des DNS-Gehaltes und

bösarti-ger Entartung einer Zelle durch neuere zellbiologische For-schungsarbeiten. Digitale Mi-kroskopbildverarbeitung macht den DNS-Gehalt messbar: Der auf den Objektträger aufge-brachte Zellabstrich wird mit ei-nem Farbstoff, der Feulgen-Färbung, eingefärbt, der sich an die DNS anlagert, Bild 2. Die Farbstoffmenge ist hierbei pro-portional zum DNS-Gehalt. In digitalisierten Mikroskopbildern werden nun die Zellkerne auto-matisch segmentiert, siehe Bild 3, und anschließend die inte-grale optische Dichte der Feul-gen-Färbung innerhalb der so gefundenen Zellkernfläche ge-messen. Sie liefert nach geeig-neten Normierungs- und Kor-rekturschritten ein zuverlässiges Maß für den DNS-Gehalt. An die Stelle einer subjektiven Be-urteilung des starken Variatio-nen unterworfeVariatio-nen Erschei-nungsbildes der Zellen tritt jetzt die Beurteilung einer Messkur-ve, die die Häufigkeitsvertei-lung des über mehrere hundert Zellen ermittelten DNS-Gehal-tes wiedergibt. Für eine Ent-scheidung zwischen unauffälli-gem, auffälligem und positivem Befund werden standardisierte Grenzwerte vorgegeben.

Computergestützte Mess-verfahren lösen allerdings eine grundsätzliche Problematik der Präventivdiagnostik noch nicht, wie ein Zahlenbeispiel aus der Gebärmutterhalskrebs-Vorsorge

Digitale Bildanalyse ermöglicht

neue Methoden der Krebsdiagnostik

TH

E

M

EN

2

/2006

U

Über 200.000 Todesfälle wer-den jährlich allein in Deutsch-land durch Krebs verursacht. Dies ist ein Appell an die For-schung, verstärkt an zuverlässi-geren Früherkennungsmetho-den zu arbeiten. Denn die Chancen für eine langfristige Heilung sind umso höher, je früher therapeutisch eingegrif-fen wird. Im Frühstadium zeigt eine bösartige Tumorerkran-kung jedoch selten deutlich sichtbare oder spürbare Sym-ptome. Präventive Untersu-chungsprogramme sind deshalb eine unabdingbare Vorausset-zung für eine wirksame Vorsor-ge. Daher sind wirtschaftlich einsetzbare Diagnoseverfahren gefragt, die ohne belastende Untersuchungen auskommen und eine hohe diagnostische Treffsicherheit garantieren. Ein interdisziplinäres Team am Lehrstuhl für Bildverarbeitung verfolgt dieses Ziel in enger Zu-sammenarbeit mit Cytopatholo-gen der Universität Düsseldorf.

Für eine frühe Krebsdiagnos-tik sind Zelle und Zellkern auf-schlussreicher als eine Diagnos-tik an Gewebeschnitten oder Organabbildungen. Krebs ent-steht in einzelnen Zellen nach

8

Bild 1:

Prototyp des Arbeitsplatzes zur Multimodalen Zellanalyse im Lehrstuhl für Bildverarbeitung.

Bild 2:

Zellen aus einem follikulären Karzinom der Schilddrüse in Feulgen-Färbung, deren Kerne in Abhängigkeit von ihrem DNS-Gehalt bläulich erscheinen.

(9)

TH

E

M

EN

2

/2006

9

Computergestützte Zytopathologie liefert

frühzeitige und treffsichere Diagnosen

Bild 3:

Zellen aus Bild 2 mit rot ein-gezeichneter Berandung der automatisch segmentierten Zellkerne.

Bild 4:

Zellen aus Bild 2, hier jedoch in sogenannter MGG-Färbung, die Formeigenschaften dar-stellt. Die Zellkerne erscheinen dunkelblau, und das umgeben-de Zytoplasma hellblau.

Bild 5:

Zellen aus Bild 2 in der Silber-Färbung, die sich an spezielle Kernproteine an-lagert. Das Zytoplasma erscheint hell-braun und die Zellkerne dunkelhell-braun.

verdeutlicht: Für die Treffsicher-heit wird eine Sensitivität von maximal 80 Prozent und eine Spezifität von bis zu 98,8 Pro-zent angegeben. Die Sensiti-vität bezeichnet hierbei den Prozentsatz von den tatsächlich vorhandenen Erkrankungsfäl-len, die von dem Diagnosever-fahren erkannt werden. Umge-kehrt steht die Spezifität für den Anteil der tatsächlich ge-sunden Frauen, die als solche diagnostiziert werden. Für Ge-bärmutterhalskrebs wird in Deutschland eine Inzidenz von jährlich 15 Neuerkrankungen pro 100.000 Frauen genannt. Bei 100.000 Untersuchungen würden bei einer 80-prozenti-gen Sensitivität zwölf der 15 Neuerkrankungen entdeckt, drei dagegen übersehen. Ande-rerseits wird bei 1,2 Prozent oder rund 1.200 der untersuch-ten gesunden Frauen fälschlich eine Erkrankung diagnostiziert. Dadurch werden Ängste ge-weckt, Nachuntersuchungen mit weiteren Arztbesuchen der Patientin sind erforderlich und möglicherweise kommt es so-gar zu unnötigen operativen Eingriffen. Für die Vorsorgedia-gnostik sind diese Folgen einer unzureichenden Spezifität ein wesentliches Hindernis.

Sensitivität und Spezifität eines Diagnoseverfahrens sind gegenläufig miteinander ver-knüpft. Sollen möglichst alle

(10)

Er-TH

E

M

EN

2

/2006

10

krankungen durch Vorgabe ge-eigneter, enger Grenzwerte er-kannt werden, würde das Dia-gnoseverfahren dadurch sensiti-ver aber gleichzeitig weniger spezifisch. Das heißt, die An-zahl der fälschlich als erkrankt diagnostizierten Personen wür-de steigen. Umgekehrt werwür-den Diagnoseverfahren weniger sensitiv, wenn die Spezifität durch Vorgabe weniger enger Grenzwerte erhöht wird. Aus diesem Dilemma helfen nur zu-verlässigere Diagnoseverfahren, also die Verbindung einer ho-hen Sensitivität mit einer annähernd 100-prozentigen Spezifität. Kein Diagnosever-fahren genügt allein für sich diesem Anspruch. Bei unsiche-ren Befunden werden deshalb weitere Verfahren hinzugezo-gen, so genannte adjuvante Verfahren, die komplementäre Informationen hinzufügen, in-dem das Untersuchungsmateri-al mit unterschiedlichen Farb-stoffen oder immunzytochemi-schen Markern präpariert wird. So kann beispielsweise nach ei-ner morphologischen Färbung, Bild 4, eine Feulgen-Färbung

für die DNS-Zytometrie, Bild 2, erfolgen oder eine Silbernitrat-Färbung, Bild 5, für eine Analy-se signifikanter Kernproteine, die Indikatoren für die Zelltei-lungsaktivität sind.

Der Schlüssel zu einer höheren diagnostischen Zuver-lässigkeit liegt also in der Zu-sammenführung sich ergänzen-der Analysen. Eine bisher nicht erreichte Treffsicherheit kann erzielt werden, wenn die Analy-seergebnisse jeder der einge-setzten Färbungen oder Mar-kerbehandlungen darüber hin-aus auf individuelle Zellen be-zogen werden können, Bild 6, anstatt lediglich pauschal für ein Zellkollektiv oder gar für unterschiedliche Präparate er-hoben zu werden. Das For-schungsprojekt Multimodale Zellanalyse (MMZA) konnte zeigen, dass dies durch Nut-zung speziell entwickelter Bild-verarbeitungsverfahren reali-sierbar ist. Dazu wird ein Prä-parat wiederholt entfärbt und erneut präpariert. Da die Zellen gut am Objektträger fixiert sind, können bereits in einer er-sten Färbung analysierte Zellen

bei der Folgeanalyse in anderer Färbung durch das computer-gesteuerte Mikroskop, Bild 1, wieder angefahren werden. Ein komplexer automatisierter Re-chenprozess bringt die umge-färbten Zellkerne, deren Durch-messer bei acht bis zehn Mikro-meter liegt, bildpunktgenau zur Deckung. Es zeigte sich, dass beispielsweise bei Schilddrüsen-zellpräparaten Tumorzellen durch zwei aufeinander folgen-de Analysen in verschiefolgen-denen Färbungen sicher entdeckt wer-den. Ein dritter Analyseschritt erlaubt erstmalig, diese Tumor-zellen vor einem invasiven Ein-griff in gutartige und bösartige Tumore zu differenzieren. Das ist ein unschätzbarer Vorteil, denn im ersten Fall ist auf diese Weise eine operative Entfer-nung der Schilddrüse vermeid-bar.

Dieses Verfahren erscheint zunächst aufwändig. Jedoch sorgt die schrittweise Einen-gung des Unsicherheitsberei-ches für die nötige Effizienz. Die Grenzwerte für den Ab-bruch der Analyse werden auf jeder Stufe so gesetzt, dass die

Sensitivität ausreichend hoch ist. Zwischen „sicher-krebsne-gativ” und „sicher-krebsposi-tiv” verbleibt eine Zone von Präparaten mit verdächtigen Zellen. Nur diese müssen weite-ren Färbungen und Bildanalyse-schritten unterzogen werden, Bild 7. Der Aufwand für Folge-analysen hält sich so in Gren-zen, auch wenn im ersten Schritt die Sensitivität zu Lasten der Spezifität hoch getrieben werden muss, um das Restrisiko eines übersehenen Befundes zu minimieren. Im Verband ebnen diese Maßnahmen den Weg für eine verantwortbare und be-zahlbare bildverarbeitungsge-stützte Krebsfrühdiagnostik. Das Forschungsprojekt Multi-modale Zellanalyse (MMZA) wird durch den Viktor-und-Mir-ka-Pollak-Fond für biomedizini-sche Technik gefördert.

Autoren:

Univ.-Prof. Dr.-Ing. Til Aach ist Inhaber des Lehrstuhls für Bild-verarbeitung. Dipl.-Ing. André Bell ist Wissenschaftlicher Mit-arbeiter am Lehrstuhl für Bild-verarbeitung. Prof. Dr. med. Alfred Böcking ist Direktor des Instituts für Cytopathologie an der Heinrich-Heine-Universität in Düsseldorf. Univ.-Prof. i.R. Dr.-Ing. Dietrich Meyer-Ebrecht war Leiter des Lehrstuhls für Bildverarbeitung. Dipl.-Inf. Timna Schneider und Dipl.-Inf.Thomas Würflinger sind Wissenschaftliche Mitarbeiter am Lehrstuhl für Bildverarbei-tung. http://www.lfb.rwth-aachen.de/mmza Bild 6:

Ergebnisse der DNS-Messung aus Bild 3 und der Kernprotein-Analyse aus Bild 5, zusammengefasst an identischen Zellen.

(11)

TH

E

M

EN

2

/2006

11

GRÜNENTHAL ist ein

unab-hängiges, forschendes und international tätiges Pharma-unternehmen. Die Zukunfts-sicherung durch innovative Forschung ist ein wesentlicher Bestandteil unserer Unterneh-mensphilosophie. Mit hohem Engagement konzentrieren wir uns auf unseren eigenen Weg: das Schmerz-Management in relevanten Indikationen.

D E R E I G E N E W E G

GRÜNENTHAL GMBH 52099 Aachen, Deutschland Sie sind

Mediziner, promovierte Naturwissenschaftler

oder Diplom-Kaufleute (m/w)

und Sie suchen breite Aufgaben- und Verantwortungsbereiche in einem internatio-nalen Umfeld und möchten dabei Ihre eigenen Ideen einbringen und verwirklichen können? Außerdem arbeiten Sie gerne in interdisziplinären Teams, sind begeiste-rungsfähig, Neuem gegenüber aufgeschlossen und wollen Dinge bewegen?

Dann sind Sie bei uns genau richtig!

Wir bieten Ihnen in unterschiedlichen Unternehmensbereichen die Chancen und

Möglichkeiten, die Sie suchen.

Nähere Informationen erhalten Sie unter www.grunenthal.de

Kontakt: Andrea Lenzen, Unternehmensbereich Personal, E-Mail: andrea.lenzen@grunenthal.com

Bild 7:

Vorgehen der Krebsdiagnose durch Multimodale Zellanalyse: Nur Zellpräparate, deren Auswertung nicht zu einer sicher positiven oder negativen Diagnose führen, werden weiteren adjuvanten Analyseschritten unterzogen.

(12)

Dirk Abel, Alexander Bollig, Manfred Enning

Produktion von Gütern in Hoch-lohnländern unmöglich. In vie-len Technologiebereichen ist Eu-ropa von Fortschritten in ande-ren Teilen der Welt abhängig, da dort ein großer Teil der Wert-schöpfung stattfindet. Die Auto-matisierungstechnik ist hingegen eine Disziplin, in der deutsche und europäische Unternehmen

weltweit eine führende Rolle einnehmen und beachtliche Be-triebsergebnisse erzielen. Um diese Stellung zu erhalten und auszubauen, muss massiv in die wertvollste Ressource investiert werden, nämlich in die Köpfe der Menschen, die die Automa-tisierungstechnik anwenden und beständig fortentwickeln. Der

Aufbau einer Modellfabrik im Institut für Regelungstechnik ist in diesem Umfeld als bedeuten-der Beitrag zur Stärkung von Lehre und Forschung in diesem wichtigen Technikfeld zu verste-hen. Eine wesentliche Aufgabe der Automatisierungstechnik ist heute das Leiten hochgradig vernetzter Produktionsprozesse, also das Aufbereiten

entschei-dungsrelevanter Informationen für den Anlagenfahrer und das effiziente Umsetzen seiner Vor-gaben bis auf die Ebene des letzten Stellventils oder Antriebs. Man unterscheidet kontinuierli-che und diskrete Prozesse. Ein Beispiel für einen diskreten Pro-zess ist das Handling leerer Fla-schen in einer Getränkefabrik,

die verschiedene Spül- und In-spektionsstationen durchlaufen und je nach Ergebnis mal hier-hin, mal dorthin geleitet wer-den. Gerätetechnische Merkma-le diskreter Prozesse sind zum Beispiel Transportbänder, schalt-bare Weichen, Greifer und Hand-habungsvorrichtungen. Das in diesem Bereich klassische Auto-matisierungsmittel ist die

Spei-Modellfabrik macht Automatisierungs t

TH

E

M

EN

2

/2006

D

Die Automatisierungstechnik ist zu einem unverzichtbaren Be-standteil einer effizienten Führ-ung von Prozessen aller Art ge-worden. Das Spektrum der Au-tomatisierungstechnik beginnt beim schlichten Heizkörperther-mostat, der die Funktion der Re-gelung gerätetechnisch umsetzt, geht über die vielfältigen

Steu-ergeräte, zum Beispiel im Auto-mobilbereich, bis hin zum Pro-zessleitsystem, welches die Her-stellung von High-Tech-Produk-ten der chemischen und phar-mazeutischen Industrie aus einer Vielzahl unterschiedlicher Roh-stoffe steuert.

Motivation der Modellfabrik

Ohne Automatisierung wäre die

12

Bild 1: Ausbildung im

kontinuierlichen Anlagenteil.

(13)

s technik erlebbar

Lehre und Forschung profitieren

von praktischer Erprobung

TH

E

M

EN

2

/2006

13

cherprogrammierbare

Steuer-ung, kurz SPS genannt. Im Ge-gensatz dazu sind kontinuierli-che Prozesse etwa in der Ver-fahrenstechnik meist durch ein Gewirr von Rohrleitungen ge-kennzeichnet. Beispiele für Auf-gaben der Automatisierungs-technik in diesem Bereich sind das Konstanthalten von

Durch-flüssen, Füllständen, Drücken und Temperaturen. Daneben sind Informationen aus einer Vielzahl von Prozessteilen zu verdichten und dem Anlagen-fahrer übersichtlich zu präsentie-ren. Die Schnittstelle ist die Leit-warte, in der animierte Fließbil-der per Beamer auf Großlein-wänden dargestellt werden und Stelleingriffe in den Prozess mit

der Maus veranlasst werden.

Prozessstory und Anlagenkonzept

Ziel der auf rund 80 Quadrat-meter Laborfläche aufgestellten Modellfabrik ist es, an einer rea-litätsnahen Modellanlage mög-lichst vollständig Konzepte und Komponenten der modernen

Automatisierungstechnik zu zei-gen. In Gesprächen mit dem Lieferanten der zentralen Anla-genkomponenten, der Firma Festo didactic, wurde zunächst die „Prozessstory” geschrieben, die das Drehbuch für die Pro-zess- und Automatisierungstech-nik vorgibt: Eine Kombination mehrerer verfahrenstechnischer

Anlagen produziert flüssige Pro-dukte, zum Beispiel Fruchtsäfte, aus unterschiedlichen Zutaten in unterschiedlichen Herstellungs-stufen. Diese werden in Gläser abgefüllt, verdeckelt, zu Gebin-den zusammengestellt und nach Zwischenlagerung zum Versand fertig gemacht. Die Deckel wer-den mit einem Produktcode ver-sehen. Ähnliche Stories spielen

sich täglich tausendfach in all den Unternehmen ab, die uns mit Gütern des täglichen Bedarfs versorgen. In der Modellfabrik ist das Produkt gewöhnliches Wasser, welches zur Veran-schaulichung der Prozesse in Behälter befüllt, wieder abgelas-sen, unter Druck gesetzt, che-misch verändert, erwärmt,

ab-gekühlt und gemischt wird. Der kontinuierliche verfah-renstechnische Teil der Modell-anlage wird aus Modulen reali-siert, welche die für den jeweili-gen Prozessschritt notwendijeweili-gen Apparate und Anschlussgeräte an das Prozessleitsystem, so ge-nannte Remote-I/O-Kompo-nenten, enthalten. Als Automa-tisierungsplattform wurde das

Bild 2:

Professor Dirk Abel diskutiert mit Mitarbeitern.

(14)

TH

E

M

EN

2

/2006

14

Prozessleitsystem PCS 7 der Firma Siemens ausgewählt. Es bietet eine maximale Durchgän-gigkeit bei der Integration des diskreten und des kontinuierli-chen Anlagenteils. Die Kommu-nikation aller Remote-I/O-Sta-tionen mit dem PCS 7 Automa-tions-Server erfolgt über das be-währte Profibus DP-Netzwerk, dessen Architektur und Bedie-nung in diesem Umfeld ebenfalls gelehrt werden kann. Gegen-stand des diskreten Prozessteils ist die Herstellung der Deckel für die Gläser, in die das Produkt abgefüllt wird. Kunststoffdeckel-rohlinge werden zu diesem Zweck unsortiert und in verschiedenen Orientierungen herangeführt, inspiziert und in eine einheitliche Orientierung gebracht. Der we-sentliche Prozessschritt ist das Anbringen eines RFID-Mikro-chips, in welchen eine individu-elle Kennung eingeschrieben wird, die das Produkt eindeutig identifiziert und Auskunft zum Beispiel über die Rezeptur, Her-stelldatum und Qualitätskontrol-le abgeben kann. Das Automati-sierungskonzept für den diskre-ten Anlagenteil ist eine verteilte Struktur mehrerer SPS der S7-Serie von Siemens. Jede Einheit ist dadurch prinzipiell als SPS-Lernstation unabhängig von den anderen verwendbar. Der not-wendige Informationsfluss zwi-schen den Stationen und die Kommunikation mit dem konti-nuierlichen Teil ist mit ProfiNet realisiert, einem auf Ethernet ba-sierenden Kommunikationssys-tem für die Automatisierungs-technik, welches neben Kosten-vorteilen vor allem einen Quan-tensprung in der Durchgängig-keit bringen wird. Als eine der ersten universitären Einrichtun-gen wird das Institut für Rege-lungstechnik in dieser Zukunfts-technologie ausbilden können. Die Verbindung zwischen dem kontinuierlichen und dem dis-kreten Teil der Modellfabrik bil-det die Abfüll- und Palettiersta-tion. Zugeführte leere Gläser werden mit dem flüssigen Pro-dukt gefüllt und mit den produ-zierten Deckeln verschlossen. In einer unmittelbar nachgelager-ten Station werden jeweils sechs Gläser in eine Gebindehalterung gestellt und in dieser Form

durch ein Palettenumlaufsystem entweder in ein Hochregallager transportiert oder unmittelbar einer Roboterstation übergeben, die eine weitere Hauptkompo-nente der Modellfabrik darstellt. Wie in realen Produktionsanla-gen kommt dem hier eingesetz-ten Industrieroboter KUKA KR16 die Aufgabe zu, die ferti-gen Produktgebinde auf einer Palette zu stapeln und damit versandfertig zu machen. Außerdem wird der Roboter das Handling des Leerguts ein-schließlich des Ausleerens der Gläser übernehmen, so dass die Anlage im geschlossenen Kreis-lauf betrieben werden kann. Da-mit endet die Prozessstory, aber bei weitem nicht die Möglich-keiten, die der Industrieroboter im Rahmen der Modellfabrik und seiner eigenen Schulungszelle bietet.

Lehre und Forschung

Automatisierungstechnische In-halte sind seit langem Gegen-stand verschiedener Lehrveran-staltungen des Instituts für Re-gelungstechnik. Wegen veralte-ter und inhomogener Geräte-technik war es bislang schwierig und in der Wirkung suboptimal, praktische Übungen mit echter Automatisierungstechnik zu ge-stalten. Diese Situation hat sich mit der Einführung der Modell-fabrik grundlegend geändert. Schritt für Schritt werden Lehr-veranstaltungen so umgestaltet, dass die Modellfabrik mit maxi-malen Nutzen integriert werden kann. Um insbesondere Pro-grammierung und Bedienung mit Studierendengruppen erar-beiten zu können, wurde eine Lerninsel integriert, die PC-Arbeitsplätze und Projektions-möglichkeiten bietet. Eine zen-trale Rolle nimmt die Modellfa-brik innerhalb des demnächst startenden fakultätsübergreifen-den Masterstudiengangs Auto-matisierungstechnik ein, der auf den Bachelor-Abschlüssen von vier Fakultäten aufsetzt und die-se zusammenführt. Zusammen mit anderen Experimentier- und Forschungseinrichtungen in an-deren Instituten wird hier eine optimale Umgebung für praxis-orientiertes Lernen bereitge-stellt.

Viele Forschungsprojekte im Institut für Regelungstechnik nutzen die Möglichkeiten des bestehenden regelungstechni-schen Labors, um Ergebnisse der theoretischen Arbeit praktisch zu erproben. Die vielen neuen Ein-zelprozesse sowohl im kontinu-ierlichen als auch im diskreten Bereich erleichtern den Zugang zur praktischen Erprobung er-heblich. Andere Projekte, die sich spezifisch mit Prozessleitsys-temen beziehungsweise mit der Steuerung diskreter Prozesse be-fassen, finden ebenfalls in der Modellfabrik ein ideales Umfeld. Im Sommer 2006 wurde das von der Deutschen Forschungs-gemeinschaft bewilligte Gradu-iertenkolleg „Algorithmische Synthese reaktiver und diskret kontinuierlicher Systeme” an der RWTH Aachen neu eingerichtet. In einer interdisziplinären Zu-sammenarbeit zwischen Infor-matikern und Ingenieuren wer-den wissenschaftliche Grundla-gen des Entwurfs von Steuerun-gen erarbeitet. Auch für diese Arbeiten wird die Modellfabrik ein wertvolles Erprobungsfeld abgeben.

Die Einrichtung der Modell-fabrik wurde durch eine gemein-same Kraftanstrengung der öffentlichen Hand und privater Förderer ermöglicht. Eine hohe Zuwendung von Bund, Land und Hochschule im Rahmen des Hochschulbauförderungsgesetzes wurde ergänzt um Sachspenden und massives Entgegenkommen der an der Modellanlage betei-ligten Unternehmen Festo di-dactic, Kuka, und Siemens. Im Namen all derer, die aufgrund dieser Investition die Lehre und Forschung der Automatisierungs-technik in einem exzellent ausge-stattetem Umfeld vorfinden und nutzen, bedanken sich die Auto-ren sehr herzlich bei den Unter-stützern.

Autoren:

Univ.-Prof. Dr.-Ing. Dirk Abel ist Direktor des Instituts und Inhaber des Lehrstuhls für Regelungstechnik. Dr.-Ing. Alexander Bolling war bis Juni 2006 Oberingenieur am Institut für Regelungstechnik. Dr.-Ing. Manfred Enning ist Oberinge-nieur am Institut für Regelungs-technik.

(15)

TH

E

M

EN

2

/2006

15

Ilse Trautwein

des gesamten linken Vorhofs implantiert werden. „Wir pla-nen an der Leiste zu punktieren und von dort aus einen etwa ein Zentimeter dicken Katheter zum Herzen hinaufzulegen”, erläutert Dr. med. Andreas Goetzenich. Durch diesen Schlauch wird die Prothese ge-führt, die unter anderem aus einem so genannten Formge-dächtnismetall besteht. Nitinol baut sich in entsprechender Wärmeumgebung wieder in die vorher „gespeicherte” Form auf. Im Herzen angekommen, soll das zwischen vier und sechs Zentimeter Durchmesser große Nitinolgerüst für die Stabilität der gesamten Vorhofprothese und vor allem für einen siche-ren Sitz der integrierten Ersatz-Mitralklappe auf dem patiente-neigenen, geschädigten Klap-penapparat sorgen.

Nitinol- eine Legierung aus Nickel und Titan - wurde 1962 in den Naval Ordnance Labora-torien in White Oak, Maryland, entwickelt. Wie auch andere Gedächtnismetalle und -legie-rungen kann es unter Hitzeein-wirkung in eine vorher festge-legte, harte Form gebracht werden. Nach dem Abkühlen lässt es sich dann wieder leicht umformen, kehrt aber bei er-neutem Erhitzen in die einge-prägte Form zurück. Weitere Formgedächtnislegierungen sind beispielsweise Kupfer-Zink-Aluminium, Gold-Cadmium und neuerdings auch Legierun-gen auf Eisenbasis wie Eisen-Mangan-Silizium.

Mitralklappenerkrankungen treten meist altersbedingt auf. Hierbei ist die Undichtigkeit der häufigste Klappenfehler. In Fol-ge entsteht ein Pendelfluss zwi-schen Vorhof und Herzkammer, wobei das Blut immer wieder in den Vorhof zurückfließt. Aber auch bei jüngeren Menschen kann es zu einer Beeinträchti-gung der Mitralklappenfunktion kommen, etwa im Verlauf eines akuten Herzinfarkts. Die Vortei-le der katheterbasierten Metho-de liegen auf Metho-der Hand: Große Operationen am offenen Her-zen entfallen. Neben dem mini-mierten Operationsrisiko bietet das kathetergestützte Verfahren zudem in Notfällen eine

schnel-lere Erstversorgungsmöglich-keit, da minimal-invasive kar-diologische Behandlungsmetho-den in vielen Krankenhäusern etabliert sind.

Bis die neuartigen Mitral-klappenprothesen klinischen Einsatz finden, wird allerdings noch einige Zeit vergehen. Pro-blematisch erweist sich mo-mentan noch die Halterung, da sich die Herzumgebung durch die regelmäßigen Kontraktio-nen stetig verändert. Im Rah-men einer Studie, die von der Holste-Stiftung mit 20.000 Eu-ro unterstützt wird, sollen nun die Prototypen weiterentwickelt und sowohl in vitro als auch in vivo getestet werden. Zunächst ist geplant, weitere Prototypen der Prothese im Institut für Tex-tiltechnik zu entwickeln, in die biologische Herzklappen inte-griert werden. Diese sollen da-nach im Rahmen einer

Ver-Minimalinvasiver Eingriff

statt großer Herzoperation

S

Statt schwerer

Herzklappen-Operation lediglich ein kathe-tergestützter Eingriff: Was bis-her für Menschen mit einer Mitralklappenerkrankung völlig undenkbar klingt, könnte dank Aachener Wissenschaftlern in einigen Jahren Therapieoption Nummer eins sein. Herz-Thor-ax-Chirurgen am Universitäts-klinikum Aachen entwickeln in Zusammenarbeit mit dem Insti-tut für Textiltechnik (ITA) und dem Helmholtz-Institut für Bio-medizinische Technik eine neuartige Verbundprothese, welche eine Herzklappe ent-hält. Das Faszinierende daran: Die Herzklappe baut sich nach ihrem Transport durch einen Katheter am Bestimmungsort im Herzen selbst auf. Dort übernimmt sie sofort ihre Auf-gabe, nämlich das Blut vom Vorhof in die linke Herzkam-mer, aber nicht zurück, fließen zu lassen.

Der Mensch hat vier Herz-klappen, die für einen zielge-richteten Blutfluss im Herzen verantwortlich sind. Hiervon sind am häufigsten die Aorten-und die Mitralklappe erkrankt. Bei den Therapieoptionen herr-schte – wie in der gesamten Chirurgie – im letzten Jahrzehnt der Trend hin zu weniger inva-siven, das heißt weniger trau-matisierenden Operationsver-fahren vor. Auch in der invasi-ven Kardiologie kam es zu ra-santen Entwicklungen der Be-handlungsmethoden. Während aber der Aortenklappenersatz mit Hilfe invasiver kardiologi-scher Verfahren bereits etabliert ist, erweist sich dieses „Repara-tur-Verfahren” bei der Mitral-klappe aufgrund des schwächer ausgeprägten Halteapparates am Herzen als schwierig.

Rund 4.000 Mitralklappen-Operationen am offenen Her-zen werden derzeit jährlich im Bundesgebiet durchgeführt. Ein großer Eingriff, der für fünf bis sieben Prozent der Patienten mit schwerwiegenden Kompli-kationen verbunden ist. Der Plan der Aachener Herz-Thor-ax-Chirurgen sieht dagegen le-diglich einen minimalinvasiven Eingriff vor. Dabei soll nicht nur eine zusätzliche Herzklappe, sondern vielmehr eine Prothese

suchsreihe im Herz-Kreislaufsi-mulator des Helmholtz-Instituts getestet werden. Dabei wird die Prothese in den simulierten Vorhof gebracht. Im Anschluss können zunächst visuell Sitz und Halt der Prothese unter re-gulären Druckverhältnissen be-obachtet werden. Zudem sind verschiedene Druckmessungen möglich, mit deren Hilfe die Klappenfunktion beurteilt wer-den kann. Außerdem werwer-den die Wissenschaftler ihr Augen-merk auf den Prothesensitz im Bereich der Lungenvenen-Ein-mündungen und auf den Halt der Mitralklappe legen. Um das Verhalten der Prothese im le-bendigen Organismus zu analy-sieren, planen die Wissenschaft-ler zu einem späteren Zeitpunkt, die optimierten Prothesen im Tierversuch am Schwein zu un-tersuchen.

(16)

Gerd Ascheid, Rainer Leupers

was eine aufwändige Kühlung überflüssig macht, siehe Bild 1.

Ein zweiter Ansatz zur Ener-gieeinsparung besteht darin, die genaue Kenntnis über die Anwendung beim Prozessor-entwurf auszunutzen. „Alles-könner“-Prozessoren, wie sie im PC Verwendung finden, sind für viele feste Anwendungen ineffizient und oft sogar überdi-mensioniert. Digicams und MP3-Player benötigen „Spezia-listen“ – Prozessoren, die mög-lichst nicht mehr aber auch nicht weniger können als von der konkreten Anwendung ge-fordert. Nur so lassen sich stun-denlange Betriebszeiten ge-währleisten bevor wieder zum Ladegerät gegriffen werden muss.

Die Forschungsprojekte am ISS und SSS greifen beide An-sätze auf. Zum Entwurf von Spezialprozessoren wurde das LISATek-System entwickelt, welches ein Industriepartner weiterentwickelt und vertreibt und das heute bereits bei zahl-reichen Chipherstellern im Ein-satz ist. Mittels der LISATek-Software kann ein Prozessorar-chitekt bereits lange vor der Fertigung bestimmen, wie gut ein Prozessor für eine gegebene Anwendung geeignet sein wird. Die wichtigsten Parameter wie Rechenleistung, Kosten und En-ergieverbrauch lassen sich per Simulation genau abschätzen, siehe Bild 2. In der Regel nimmt der Prozessorarchitekt dann an-wendungsspezifische

Optimie-Spezialisten statt Alleskönner

Energiesparende Prozessoren

für Handy, Kamera & Co

TH

E

M

EN

2

/2006

I

In Zeiten steigender Öl- und Gaspreise hat das Thema Ener-giesparen Konjunktur. Ebenso wie in Haushalt, Straßenverkehr und Fabriken gibt es auch er-hebliche Einsparpotenziale im „mikroskopischen Maßstab“: Viele elektronische Annehm-lichkeiten des Alltags wie Han-dys, PDAs und Gameboys sind portabel und daher auf eine Stromversorgung aus Batterien angewiesen. Auch wenn der Betrieb solcher Geräte nicht sehr stark zum Gesamtenergie-konsum beiträgt, ist effiziente Energienutzung auch hier ein äußerst wichtiges Thema. Die begrenzte Lebensdauer von Batterien und Akkus bei ständig steigenden Anforderungen an die Rechenleistung ist heute ei-ne der größten Herausforde-rungen beim Entwurf mikro-elektronischer Systeme – man denke zum Beispiel an die ver-zögerte Einführung der UMTS-Endgeräte. Am Lehrstuhl für In-tegrierte Systeme der Signalver-arbeitung, kurz ISS, und dem Lehr- und Forschungsgebiet Software für Systeme auf Silizi-um, kurz SSS, werden Schal-tungsarchitekturen und Ent-wurfswerkzeuge entwickelt, um auch zukünftige Anwendungs-felder mobiler Geräte mit schränktem Energiebedarf be-herrschen zu können.

Hierzu ist ein radikales Um-denken im Chipentwurf erfor-derlich. Früher richteten sich die Anstrengungen der großen Pro-zessorschmieden vorwiegend darauf, „Alleskönner“ wie Pen-tium-Prozessoren zu immer höheren Gigahertz-Taktraten zu treiben. Hierdurch steigt aber die elektrische Leistungsaufnah-me auf Dauer zu stark an. Bes-ser als einem „großen“ Prozes-sor die gesamte Arbeit zu über-tragen ist es, mehrere kleinere Prozessoreinheiten parallel ar-beiten zu lassen. Ein Weg, den Intel mit den so genannten Multicore-Architekturen bereits heute konsequent beschreitet. Diese verbrauchen in der Sum-me weniger Energie für die gleiche Aufgabe. Daneben gibt es weniger Probleme mit der Wärmeentwicklung im Chip,

16

Bild 1:

Ein Pentium 4 hat die acht-fache Leistungsaufnahme eines Pentium M für Notebooks und die mehr als 160fache Leistungsaufnahme im Vergleich zum Mobiltelefon. Entsprechend aufwändig ist die Kühlung.

(17)

Bild 2: Messungen am Prototypen eines Spezialprozessors für die Bildver-arbeitung, beispiels-weise für zukünftige Digitalkameras. Foto: Peter Winandy

(18)

TH

E

M

EN

2

/2006

18

zierte oder neue Anwendungen optimieren. Dies ermöglicht ei-ne erheblich höhere Flexibilität. Nimmt ein Handybenutzer erst an einer Videokonferenz teil und möchte anschließend mobil fernsehen oder spielen, so kann der jeweils optimale Befehlssatz in den Prozessor geladen wer-den. Man benötigt keine ge-sonderte Hardware für jede einzelne Anwendung und spart Energie. Auch für solche „Spe-zialisten“ werden natürlich be-sondere Entwurfswerkzeuge benötigt.

Wenn aber verschiedene Funktionen gleichzeitig bearbei-tet werden müssen, kann man nicht umhin, mehrere Prozesso-ren zur Verfügung zu stellen. Wegen des gleichzeitig höheren Rechenaufwands neuer Funk-tionen wie der erwähnten Vi-deokonferenz werden zukünfti-ge Chips für diese Geräte eine große Zahl von Prozessoren enthalten. Für besonders re-chenintensive Aufgaben wie die Verarbeitung der Funksignale oder die Multimedia-Funktio-nen verwendet man aus den angesprochenen Gründen Spe-zialprozessoren. Für andere

An-forderungen benötigt man aber auch flexiblere „Alleskönner“. Die Chips werden daher beide Arten von Prozessoren enthal-ten. Man spricht dann von „Heterogenen Multiprozessor-Systemen auf einem Chip“.

Dieser Weg bringt mehrere Probleme mit sich. Ein wesentli-ches ist die optimale Verbin-dung der Prozessoren. Einer-seits müssen sie Daten unter-einander austauschen. Ein Foto wird zum Beispiel zuerst in ei-nem Spezialprozessor für die Bildbearbeitung aufbereitet und dann über den Funkanschluss verschickt. Andererseits wird gewünscht, die Prozessoren op-timal auszunutzen. Eine Aufga-be sollte deshalb nicht unAufga-be- unbe-dingt immer einem festen Pro-zessor zugewiesen werden, sondern einem gerade freien und geeigneten. Bei einer Viel-zahl von Prozessoren gibt es auch eine Vielzahl von Verbin-dungsmöglichkeiten. Wie bei den entsprechenden Architek-turen muss auch hier mehr Fle-xibilität mit größeren Chips und höherem Energiebedarf bezahlt werden. Bei jeweils direkten Verbindungen zwischen den

Prozessoren wächst die Zahl annähernd quadratisch: bei fünf Prozessoren sind dies zehn und bei zehn Prozessoren schon 45 Verbindungen! Das andere Extrem wäre, alle Pro-zessoren an einen einzigen „Bus“ anzuschließen. Ein Bus funktioniert wie eine Telefon-konferenz: Es darf immer nur einer sprechen, alle anderen müssen zuhören - im Gegen-satz zum Menschen halten Chips sich immer streng an die-se Regel. Dadurch wird aber der Datenaustausch zum Eng-pass. Statt zu arbeiten, müssten die Prozessoren ständig auf Da-ten warDa-ten – und Zeit und Ener-gie verschwenden. Die Suche nach optimalen Verbindungs-strukturen, die unter dem Stich-wort „Netzwerke auf einem Chip“ laufen, ist ein hochaktu-elles Thema. Beispielsweise ver-bindet eine kürzlich von ST-Microelectronics entwickelte Topologie, das Spidergon, Re-gularität und Effizienz, siehe Bild 3.

Die Integration auf einem Chip ist mit sehr hohen Kosten und langen Entwicklungszeiten verbunden. Deshalb sollte man die optimale Prozessorkonfigu-ration und das geeignete Netz-werk vorher durch umfangrei-che Untersuchungen bestim-men. Auch die Software, die auf den Prozessoren abläuft, muss dabei einbezogen wer-den. Man benötigt ein leicht konfigurierbares Simulations-modell des späteren Chips, so dass verschiedene Architektu-ren schnell und effizient mitein-ander verglichen werden kön-nen. Das Modell muss sowohl die Funktion der Prozessoren als auch die der Verbindungs-netzwerke möglichst genau nachbilden. Je detaillierter diese Darstellung ausfällt, desto langsamer läuft sie aber auf ei-nem Rechner. Daher benötigt man eine Folge von Modellen mit steigendem Detailgrad. Eine Änderung muss dann aber auf die ganze Folge von Modellen fehlerfrei übertragen werden – eine schwierige Aufgabe, be-sonders unter dem während der Produktentwicklung übli-chen hohen Zeitdruck. Effizien-rungen vor. Zum Beispiel kann

der Einbau spezieller Rechen-einheiten die Effizienz weiter steigern, während einige vor-handene Prozessorkomponen-ten sich für die gegebene An-wendung womöglich als über-flüssig erweisen. Schließlich wird eine genaue Spezifikation der optimierten Prozessorarchi-tektur erzeugt und zur Ferti-gung weitergegeben.

Für rechenintensive Anwen-dungen wie die digitale Signal-verarbeitung in Handys wurden bereits vor der Entwicklung von LISATek Spezialprozessoren ge-baut, was jedoch mit einem er-heblichen Personaleinsatz ver-bunden war. LISATek automati-siert viele Teilaufgaben des Pro-zessorentwurfs: Zur Program-mierung notwendige Software-Werkzeuge wie C-Compiler, Si-mulatoren und Assembler wer-den aus einem Prozessormodell in der Beschreibungssprache LISA automatisch generiert. So-mit können auch kleinere Inge-nieurteams in vertretbarer Zeit einen energiesparenden Prozes-sor entwerfen.

Aktuelle Projekte am ISS und SSS beschäftigen sich mit einer noch weiter gehenden Automatisierung des Entwurfs. Im Idealfall würde ein entspre-chendes Werkzeug eine Be-schreibung der Anwendung einlesen und eine optimale Pro-zessorarchitektur ausgeben. Dies ist jedoch theoretisch un-möglich und würde in der Pra-xis auch kaum akzeptiert, denn der Anwender erwartet einen transparenten Entwurfsprozess. Mühselige Teilaufgaben, wie beispielsweise die genaue Ana-lyse der Anwendung und die dafür notwendige Bestimmung des besten Satzes von Spezial-befehlen aus Millionen von Möglichkeiten, lassen sich je-doch durchaus automatisieren. Der Prozessoringenieur kann so seine Kreativität auf die we-sentlichen Entwurfsaufgaben konzentrieren.

Die nächste Generation von Spezialprozessoren steht bereits in den Startlöchern. Rekonfigu-rierbare Prozessorarchitekturen lassen sich teilweise sogar erst nach der Fertigung für

modifi-Bild 3:

„Feldtests“ sind ein wichtiger Bestandteil der Forschung. Mitarbeiter des Instituts für Integrierte Systeme der Signal-verarbeitung mit einer Ent-wicklungsplattform zum Test zukünftiger Mobilfunksysteme.

(19)

TH

E

M

EN

2

/2006

19

te Entwurfswerkzeuge für sol-che Multiprozessor-Systeme auf einem Chip und den zugehöri-gen Netzwerken zu entwickeln, sind ein weiteres Forschungsge-biet von ISS und SSS. Besonde-re Schwerpunkte der Arbeit sind dabei die Möglichkeit, effi-zient verschiedene Alternativen untersuchen zu können, sowie die automatische Erzeugung von Modellen mit unterschiedli-chem Detailgrad möglichst aus einer Datenbasis. Ein erster Pro-totyp eines Entwurfssystems wurde bereits von einem Indus-triepartner übernommen und

zu einem kommerziellen Pro-dukt weiterentwickelt.

Modernste Prozessoren ent-halten mehr als 100 Millionen Komponenten oder Transisto-ren. Energiesparen im „kleinen Maßstab“, der Welt der Chips, ist also ein sehr komplexes Pro-blem. Gleichzeitig ist für den Entwurf ein zunehmend breites und interdisziplinäres Basiswis-sen, das die Hardware,

Soft-ware und die Netzwerke einschließt, erforderlich. Nur so können immer neue Generatio-nen von mobilen Geräten ent-stehen, die unser Leben ange-nehmer und sicherer machen. Die Resultate der hier erwähn-ten Forschungsarbeierwähn-ten sparen zwar nur relativ wenige Kilo-wattstunden Energie ein, doch es macht eben einen großen Unterschied, ob diese direkt aus der Steckdose oder aus Batteri-en bezogBatteri-en werdBatteri-en. Ein Um-stand, den man bedenken soll-te – vielleicht beim nächssoll-ten Aufladen des Handys.

Autoren:

Univ.-Prof. Dr.-Ing. Gerd Ascheid ist Inhaber des Lehr-stuhls für Integrierte Systeme der Signalverarbeitung. Univ.-Prof. Dr.rer.nat. Rainer Leupers betreut das Lehr- und Forschungsgebiet Software für Systeme auf Silizium.

www.iss.rwth-aachen.de Bild 4:

Beispiele für Verbindungsmög-lichkeiten von Prozessoren.

(20)

M

Rudolf Mathar

Mobilfunkanbietern registriert. Die Kapazität der für die Mobil-kommunikation zur Verfügung stehenden Frequenzbänder ist begrenzt. Um trotz der großen Teilnehmerzahlen hohe Daten-raten, gute Übertragungsqua-lität und gleichzeitiges Telefo-nieren vieler Nutzer zu ermögli-chen, müssen die Mobilfunk-netze sorgfältig geplant und ausgebaut werden, insbesonde-re in Städten mit ihinsbesonde-ren komple-xen Gebäudestrukturen und den vielen, auf engem Raum eingehenden Verbindungsan-forderungen. Dies gilt sowohl für die gut ausgebauten GSM-als auch für die im rasanten Aufbau begriffenen UMTS-Net-ze. Bei beiden Systemen wird durch eine Vielzahl von Basis-stationen sichergestellt, dass Mobiltelefone im gesamten Ge-biet des Betreibers eine Funk-verbindung herstellen können. Das Verbindungsgebiet jeder Basisstation heißt Zelle, daher kommt auch der Name „Zell-netze”.

Die Mobilkommunikation der zweiten und dritten Gene-ration basiert auf grundsätzlich verschiedenen

Übertragungs-techniken. Bei GSM werden gleichzeitige Telefonate auf ver-schiedene Frequenzen verteilt. Zusätzlich können sich bis zu acht Teilenehmer eine Frequenz teilen, indem der Kanal in kurze Zeitfenster aufgeteilt wird. Ein Teilnehmer erhält periodisch je-des achte Fenster und kann in diesem seine aktuellen Daten übertragen. Im Gegensatz dazu benutzen bei UMTS alle Teil-nehmer das zur Verfügung ste-hende Radiospektrum gleichzei-tig. Die Trennung wird hierbei durch Code-Spreizung vorge-nommen. Für jede Verbindung wird ein eigener, zu allen ande-ren orthogonaler, also frei kom-binierbarer, Code verwendet. Hierdurch erscheint die Sende-leistung der anderen Teilneh-mer für die eigene Verbindung als Hintergrundrauschen. Na-türlich darf das Verhältnis von Sendesignal zur Rauschleistung nicht zu klein sein.

Aus der kurzen Beschrei-bung der verschiedenen Tech-nologien ergeben sich die typi-schen Planungsproblematiken. Bei GSM müssen Kanäle räum-lich so auf die Basisstationen verteilt werden, dass sie sich

möglichst wenig stören. UMTS verlangt eine Konfiguration der Antennen, die möglichst wenig Rauschleistung, also Interferenz bei den anderen erzeugt. Bevor man an die Lösung beider Pro-bleme herangehen kann, muss zunächst ein genaues Bild des Ausbreitungsverhaltens der Ra-diowellen gewonnen werden. Es ist zu bestimmen, welche Leistung einer Basisstation an beliebigen Orten des zu versor-genden Gebiets ankommt. Dies ist wichtig für die Bestimmung der Güte des Nutzsignals und gleichzeitig der von anderen Stationen erzeugten Interfe-renz.

Die Berechnung der Feld-stärke wird im Computer mit Hilfe schneller Algorithmen durchgeführt, die das Ausbrei-tungsverhalten der Radiowellen durch Strahlverfolgung simulie-ren. Natürlich spielen die Um-gebung, die Geländehöhen und die Gebäude wegen der Beu-gung und Reflexion der Radio-wellen eine entscheidende Rol-le. Auch diese Umgebungsda-ten müssen in das Rechnermo-dell integriert werden. Am Lehrstuhl für Theoretische

In-Überall optimal

mobil telefonieren

Höchste Kapazität

für moderne Mobilfunknetze

TH

E

M

EN

2

/2006

20

Mobiles Telefonieren ist zu ei-nem selbstverständlichen Teil unseres Alltags geworden. Dar-über hinaus unterstützen die Netze der so genannten zwei-ten Generation nach dem GSM-Standard, kurz für Global System for Mobile Communica-tions, Text- und Bildnachrichten sowie reine Datenübertragung. GSM wurde in Deutschland 1992 eingeführt. Ende 2005 gab es hier mehr als 76 Millio-nen Teilnehmer und Anfang 2006 nutzten weltweit bereits circa 1,7 Milliarden Menschen das GSM-Netz. Derzeit werden Mobilkommunikationsnetze der dritten Generation nach dem neuen UMTS-Standard, kurz für Universal Mobile Telecom-munications System, rapide ausgebaut. Durch die flexiblere Übertragungstechnik lassen sich höhere Datenraten übermitteln. Damit können neben der Tele-fonie auch multimediale Diens-te, insbesondere der Zugang zum Internet mit seinen vielfäl-tigen Angeboten, realisiert wer-den. Rechnet man alle derzeit existierenden Standards zusam-men, so sind weltweit circa zwei Milliarden Teilnehmer bei

Bild 1:

München in gelb und grün. Die Feldstärke-prädiktion in einem Gebiet von München. Gelb bedeutet hohe, grün geringe Feldstär-ke des Senders.

Bild 2:

Das Antennendiagramm der verwendeten Antenne.

(21)

TH

E

M

EN

2

/2006

21

Bild 3: Der Planungsprozess für UMTS: a) Höhen- und Gebäudedaten; b) Mögliche Senderpositionen mit ihrer Wellenausbreitung; c) Das unterliegende Verkehrsmodell.

a)

b)

c)

formationstechnik ist ein Algo-rithmus entwickelt worden, der Strahlverfolgung in einem rein diskreten Grundmodell durch-führt und damit höchst genaue Feldstärkevorhersagen ermög-licht. Sein hervorstechendes Merkmal ist die Geschwindig-keit. Mehrere Quadratkilometer städtischer Umgebung können im Bereich weniger Minuten abgearbeitet werden. Derzeit wird an einer Parallelisierung des Algorithmus gearbeitet, die Ergebnisse im Bereich von Se-kunden ermöglichen wird. Bild 1 zeigt ein Beispiel der dreidi-mensional berechneten Feld-stärke in einem Gebiet um die Alte Pinakothek in München. Gelb bedeutet hohe, grün ge-ringe Feldstärke. Von großem Einfluss ist das Antennendia-gramm, also die Ausrichtung und Sektorisierung der Anten-nen. Zudem wird die Leistung, durch die Bauart der Antenne bedingt, nicht gleichmäßig in alle Richtungen abgestrahlt. In welchem Maße dies in die ver-schiedenen Richtungen ge-schieht, zeigt das Beispiel eines dreidimensionalen Antennen-diagramms in Bild 2. Die weit herausragenden Spitzen bedeu-ten Verstärkung und die nach innen gezogenen Gebiete Ab-schwächung der Abstrahlrich-tung. Diese Effekte macht man sich gezielt zur Unterdrückung von Interferenz zu Nutze.

Mit Hilfe der Feldstärkeprä-diktion kann nun für jede vor-geschlagene Konfiguration des Netzes die aktuelle Versor-gungs- und Interferenzsituation berechnet werden. Bei der Ka-nalaufteilung in GSM-Netzen stellt sich das Problem für den Netzwerkbetreiber nun wie folgt dar: Er muss die verfügba-ren Frequenzen so auf die Ba-sisstationen verteilen, dass in jeder Zelle genügend viele Kanäle zur Verfügung stehen, die Interferenz auf allen Kanälen eine zulässige Höchst-schranke nicht überschreitet und die Gesamtinterferenz im Netz möglichst klein wird. Die Frequenzzuweisung wird als

mathematisches Optimierungs-problem mit Nebenbedingun-gen formuliert. Leider gehört dies zur Klasse der extrem schwierigen Probleme und selbst moderne Computer wür-den wegen der riesigen Varia-blenzahlen tausende von Jah-ren benötigen, um eine exakte Lösung zu finden. Am Lehr-stuhl für Theoretische Informa-tionstechnik werden Verfahren entwickelt, die das große Ge-samtproblem in kleine Teilpro-bleme zerschneiden, die exakt optimiert werden können. Die Teillösungen werden wiederholt zu einer Gesamtlösung zusam-mengesetzt. Diese Methode lie-fert hervorragende Ergebnisse, die von Netzwerkbetreibern bei der Planung und Steuerung der GSM-Netze eingesetzt werden. Auf diese Weise können mehr Frequenzen zugewiesen wer-den, die Qualität der Übertra-gung steigt und es finden we-niger Blockierungen und Ge-sprächsabbrüche statt.

Bei den neuen UMTS-Net-zen ist der Planungsprozess noch komplizierter. Nach Be-rechnung der Funküberdeckung kann die Interferenz nicht nachträglich durch Kanalzuwei-sung minimiert werden. Da alle Teilnehmer im gleichen Band übertragen, muss die gegensei-tige Störung der Benutzer von vorneherein durch die Ausle-gung des gesamten Netzes ring gehalten werden. Dies ge-schieht durch Wahl geeigneter Standorte für die Basisstatio-nen, durch Sektorisierung der Zellen, die Wahl der Abstrahl-richtung der Antennen und die Größe der Sendeleistung. Wie-der entsteht ein Problem mit ungeheuer vielen Variablen, das extrem schwierig zu lösen ist. Ein Grundschritt der Optimie-rung ist in Bild 3 graphisch dar-gestellt. Ausgangspunkt sind Informationen über Gelän-dehöhen, dabei bedeutet weiß hoch, dunkelgrau niedrig. Die Gebäudedaten, als Umrisse eingezeichnet, stehen hier für ein Gebiet von Wien mit dem Schloss Belvedere. Als nächstes

(22)

wird eine Konfiguration von möglichen Antennenstandorten und Ausrichtungen mit blauen Pfeilen eingetragen und deren jeweiliges Wellenausbreitungs-verhalten berechnet. Dem wird ein Verkehrsmodell in Form von Positionen von Mobilstationen hinzugefügt, die eine bestimm-te Übertragungsrabestimm-te zum Bei-spiel für Sprachübertragung oder Datendienste, siehe blaue Punkte, anfordern. Insgesamt wird berechnet, wie hoch die übertragbare Datenrate im ge-samten Szenario ist und ob alle geforderten Verbindungen auch bedient werden können. Diese Schritte werden iterativ, also wiederholt, durchgeführt bis sich eine optimale Konfigurati-on des Netzes ergibt.

Es lässt sich leicht vorstel-len, welch großer Berechnungs-aufwand hinter jedem dieser Schritte steckt und wie viele hier-von durchgeführt werden müs-sen bis ein optimales Netz gefun-den ist. Insbesondere kommt es hierbei auf die Schnelligkeit der Wellenausbreitungsrechnung an. Ein schneller Branch- and-Bound Algorithmus mit zufallsgesteuer-ten Komponenzufallsgesteuer-ten, der das große Ausgangsproblem iterativ in klei-nere Teilprobleme zerlegt und solche ausschließt, die zu keiner Lösung führen, wurde am Lehr-stuhl für Theoretische Informa-tionstechnik entwickelt, um die Optimierung durchzuführen. Dieser ist erfolgreich bei einem Netzwerkbetreiber im Einsatz.

TH

E

M

EN

2

/2006

22

Für die Zukunft bleibt viel zu tun. Die heutigen Compu-termodelle sind noch nicht per-fekt. Je genauer man aber mo-delliert, desto umfangreicher werden die Optimierungsrech-nungen. Also müssen die Algo-rithmen effizienter gemacht und insbesondere auch paralle-lisiert werden. Zukünftig wer-den komplexere Übertragungs-verfahren mit Mehrantennen-systemen zum Einsatz kommen. Die Kapazität und die Übertra-gungsgeschwindigkeit werden wachsen, das heißt für die opti-male Konfiguration gibt es wie-der mehr Kontrollvariablen.Über-all optimal mobil zu telefonie-ren birgt eine Menge von Her-ausforderungen sowohl auf praktischer als auch auf theore-tischer Seite.

Autor:

Univ.-Prof. Dr.rer.nat. Rudolf Mathar ist Inhaber des Lehr-stuhls für Theoretische Infor-mationstechnik. www.ti.rwth-aachen.de Bild 4: Mitarbeiter des Lehrstuhls für Theoretische Informationstechnik beim Algorithmenentwurf und der

graphischen Gestaltung der Feldstärkeprädiktion für die optimale Planung zellulärer Mobilfunknetze.

(23)
(24)

Matthias Jarke

Der Charakter der Studi-engänge wird durch For-schungspraktika in den am B-IT beteiligten Fraunhofer-Institu-ten für Angewandte Informati-onstechnik, FIT, für Medien-kommunikation, IMK, und für Wissenschaftliches Rechnen, SCAI, geprägt. So verwundert es nicht, das viele der ersten Absolventen der 2003 begon-nenen Studiengänge Doktoran-denstellen oder attraktive F&E-nahe Tätigkeiten in der Wirt-schaft weltweit angenommen haben. Im Rahmen der Exzel-lenzinitiative bemüht sich das B-IT derzeit, auch selbst eine Graduiertenschule für eine in-novative Doktorandenausbil-dung einzurichten.

Das B-IT - erste gemeinsa-me wissenschaftliche Einrich-tung zweier NRW-Universitäten - wird aus Stiftungsmitteln und ergänzenden Haushaltsmitteln finanziert. Insgesamt neun Stif-tungsprofessuren wurden ein-gerichtet, davon an der RWTH Aachen die Professuren für Me-dia Computing (Univ.-Prof. Dr.rer.nat. Jan Oliver Borchers, vormals Stanford University und ETH Zürich), Eingebettete Systeme (Univ.-Prof. Dr.-Ing. Stefan Kowalewski, vormals Universität Dortmund und Bosch Research) und Medienprozesse (Univ.-Prof. Dr.rer.nat. Thomas Rose, vormals University of Toronto und FAW Ulm). Autor:

Univ.-Prof. Dr.rer.pol. Matthias Jarke ist Inhaber des Lehrstuhls für Informatik 5 (Informations-systeme) und leitet das Fraun-hofer-Institut für angewandte Informatik in St. Augustin. www.b-it-center.de

B-IT: Angewandte Informatik International

24

W

TH

E

M

EN

2

/2006

Wer im „Bonn-Aachen Interna-tional Center for Information Technology”,kurz B-IT, einen der englischsprachigen Master-Studiengänge „Media Informa-tics” oder „Life Science Infor-matics” studiert, findet sich in einer wahrhaft international ausgerichteten Umgebung wie-der. Nicht nur kommen die der-zeit knapp 160 Studierenden aus nicht weniger als 34 Län-dern, sondern das attraktive B-IT-Gebäude am Godesberger Rheinufer grenzt auch direkt an das entstehende UN-Konferen-zzentrum an, als „B-IT-Mensa” wird die Kantine des Auslands-senders „Deutsche Welle” mit genutzt.

Die Master-Studiengänge sind im Grenzbereich zwischen Informatik zu Kommunikation und Medien beziehungsweise zu den Lebenswissenschaften angesiedelt – beides Gebiete, in denen die Region hohes For-schungspotenzial und attraktive industrielle Arbeitgeber auf-weist. Zulassungsvoraussetzung ist ein überdurchschnittlicher Bachelor-Abschluss in Informa-tik oder dem Anwendungsge-biet. Bereits 2004 wurden die Master-Studiengänge als jeweils erste Studiengänge der RWTH Aachen und der Universität Bonn erfolgreich akkreditiert.

(25)

Références

Documents relatifs

3.Der Junge, an DEN du denkst, DER neben dir in der Schule sitzt, mit DEM wir uns gestern unterhalten haben, über DEN ich mich geärgert habe und DEN wir gesehen haben, ist

3.Die Frau, an DIE du denkst, DIE neben dir in der Schule sitzt, mit DER wir uns gestern unterhalten haben, über DIE ich mich geärgert habe und DIE wir gesehen haben, ist

Der Verkehrsverein legt erstmals einen Sommerprospekt auf und im Sommer wird der Rund-Wanderweg um die Gastlosenkette erstellt und am 2. Sep ­ tember 2006 offiziell

44 Raoul CAMUS, „A Band is a Band is a Band“, S. Die Fußnote 4 im Zitat bezieht sich auf den Art. „Band“ in: The Grove Dictionary of American Music, hg. Oxford Music

Der Journalist Joachim Fest hatte bereits 1963 einen Aufsatz über Albert Speer veröffentlicht, in dem er sich dessen Nürnberger Entlastungsstrategie der

Auch sie finden in Kunst und Literatur Antwor- ten auf juristische Fragen, die ihrer Zeit voraus sind; sei es, dass diese Antworten erfahrungswissenschaftliche Erkennt-

Er soll sich telefonisch erkundigen, ob dies möglich ist.“ oder D68: „Am Abend TV schauen, solange der Klient will mit dem Risiko, dass er am nächsten Morgen nicht pünktlich zur

Je mehr Medikamente vorbereitet, kontrolliert und verabreicht werden müssen, desto grösser ist die Chance, dass ein falsches Medikament oder eine falsche Dosis zu einem