scispace - formally typeset
Search or ask a question

Showing papers in "Praxis Der Informationsverarbeitung Und Kommunikation in 2004"


Journal ArticleDOI
TL;DR: This contribution proposes a novel formulation of a one-class Support Vector Machine (SVM) specially designed for typical IDS data features, to encompass the data with a hypersphere anchored at the center of mass of the data in feature space.
Abstract: Practical application of data mining and machine learning techniques to intrusion detection is often hindered by the difficulty to produce clean data for the training. To address this problem a geometric framework for unsupervised anomaly detection has been recently proposed. In this framework, the data is mapped into a feature space, and anomalies are detected as the entries in sparsely populated regions. In this contribution we propose a novel formulation of a one-class Support Vector Machine (SVM) specially designed for typical IDS data features. The key idea of our ”quarter-sphere” algorithm is to encompass the data with a hypersphere anchored at the center of mass of the data in feature space. The proposed method and its behavior on varying percentages of attacks in the data is evaluated on the KDDCup 1999 dataset.

88 citations


Journal ArticleDOI
TL;DR: This paper presents a tool that performs real-time verification of attacks detected by an intrusion detection system and shows that verification can dramatically reduce both false and non-relevant alerts.
Abstract: Intrusion detection systems monitor protected networks and attempt to identify evidence of malicious activity. When an attack is detected, an alert is produced, and, possibly, a countermeasure is executed. A perfect intrusion detection system would be able to identify all the attacks without raising any false alarms. In addition, a countermeasure would be executed only when an attack is actually successful. Unfortunately false alarms are commonplace in intrusion detection systems, and perfectly benign events are interpreted as malicious. In addition, non-relevant alerts are also common. These are alerts associated with attacks that were not successful. Such alerts should be tagged appropriately so that their priority can be lowered. The process of identifying alerts associated with successful attacks is called alert verification. This paper describes the different issues involved in alert verification and presents a tool that performs real-time verification of attacks detected by an intrusion detection system. The experimental evaluation of the tool shows that verification can dramatically reduce both false and non-relevant alerts.

50 citations


Journal ArticleDOI
TL;DR: An overview of some recent efforts towards the specification and management of QoS-aware Web services is given.
Abstract: The current Web service standard does not provide mechanisms for service offering and dynamic service selection based on QoS properties. A lot of research work related to this topic has been carried out recently both in the industrial and academic world. This article gives an overview of some recent efforts towards the specification and management of QoS-aware Web services.

29 citations


Journal ArticleDOI
TL;DR: The motivation for using the honeynet methodology is explained, experiences with a honeynet at RWTH Aachen University are described and the value of honeynets for computer vulnerability assessment is discussed.
Abstract: ABSTRACT Honeypots are electronic bait, i.e. network resources (computers, routers, switches, etc.) deployed to be probed, attacked and compromised. Honeypots run special software which permanently collects data about the system and greatly aids in post-incident computer and network forensics. Several honeypots can be assembled into networks of honeypots called honeynets. Because of the wealth of data collected through them, honeynets are considered a useful tool to learn more about attack patterns and attacker behavior in real networks. This paper explains the motivation for using the honeynet methodology and describes experiences with a honeynet at RWTH Aachen University. In analyzing the data collected through our experiment, we discuss the value of honeynets for computer vulnerability assessment. The paper also gives an overview over ethical and legal aspects of honeypots and a look on possible directions for further research.

18 citations


Journal ArticleDOI
TL;DR: Thiser Beitrag analysiert aktuelle Fragestellungen and diskutiert die Lösungsansätze in Forschung, Entwicklung, Standardisierung and bei the Werkzeugunterstützung.
Abstract: ZUSAMMENFASSUNG Ein kundenorientiertes IT-Dienstmanagement stellt gegenüber einem komponenten- und geräteorientierten IT-Management neuartige Anforderungen. Dieser Beitrag analysiert aktuelle Fragestellungen und diskutiert die Lösungsansätze in Forschung, Entwicklung, Standardisierung und bei der Werkzeugunterstützung. Insbesondere wird auf offene Fragen der Dienstmodellierung, der Dienstschnittstellenfestlegung und des SLA-und Customer Service Managements eingegangen. Die Konzepte der Dienstmanagement-Standards ITIL und eTOM werden skizziert.

5 citations


Journal ArticleDOI
TL;DR: In diesem Beitrag beleuchten wir den aktuellen Stand und die Perspektiven im Bereich des Self-Managements, welche auf dem Weg zu selbstverwaltenden Systemen zu lösen sind, und die Lösung dieser Misere automatisiertes Management.
Abstract: ZUSAMMENFASSUNG Gordon Moores Gesetz vom exponentiellen Wachstum der Transistordichte pro Quadrat-Zoll hat seit 1965 die IT-Industrie geprägt. Mit der damit einhergehenden Explosion der Rechnerleistung wurde die Software immer leistungsfähiger, und man ist dazu übergegangen, Rechnersysteme zu vernetzen und Anwendungen zu verteilen. Eine Folge dieser Entwicklungen ist die rapide zunehmende Komplexität der modernen Informationstechnologie. 40 Jahre nach Moores Entdeckung droht eben diese Tatsache, dem bisherigen exponentiellen Wachstum natürliche Grenzen zu setzen. Moderne, vernetzte Rechnersysteme, wie sie in der Industrie weit verbreitet sind, sind schon heute zu komplex als dass sie auf manuellem Wege, d.h., durch menschliche Administratoren, in einem optimalen Betriebszustand gehalten werden können. Die Folgen sind eine unzureichende Ausnutzung vorhandener Ressourcen, wiederkehrende Fehlerzustände und Lücken in der Absicherung gegen mutwillige Angriffe auf die System-Integrität. Dies führt zu erheblichen finanziellen Mehraufwendungen bzw. Verlusten. Ein permanent überfordertes Administrationspersonal, trägt durch eigene Fehler ein Übriges bei. Schenkt man den jüngst aufkeimenden Initiativen von IT-Giganten wie IBM, Microsoft und Sun Glauben, so heißt die Lösung dieser Misere automatisiertes Management. Vernetzte Rechnersysteme sollen sich auf lange Sicht selbst verwalten. Man erhofft sich hiervon ein effektiveres Management und eine Freistellung von Personal, welches sich dann um wichtigere Aufgaben kümmern kann. In diesem Beitrag beleuchten wir den aktuellen Stand und die Perspektiven im Bereich des Self-Managements. Des Weiteren diskutieren wir offene Fragen, welche auf dem Weg zu selbstverwaltenden Systemen zu lösen sind.

4 citations


Journal ArticleDOI
TL;DR: This work proposes security wrappers monitoring the events passing the interfaces of components and checking them for compliance with formally specified security policies and introduces the layout and functionality of the wrappers and outline the formal security specifications which can be easily derived from a set of specification patterns.
Abstract: In contrast to traditional software, component-structured systems are developed by combining independently designed and sold software components. This technology promises an easier reuse of software building blocks and, in consequence, a significant reduction of the efforts and costs to produce software applications. On the other side, component-structured software is subject to a new class of security threats. In particular, a maliciously acting component may easily spoil the application incorporating it. In this paper we introduce an approach addressing this particular threat. A so-called security wrapper monitors the events passing the interface of a component and checks them for compliance with formally specified security policies guaranteeing a benevolent behavior of the checked component. We introduce the layout and functionality of the wrappers and outline the formal security specifications which can be easily derived from a set of specification patterns. Unfortunately, the security wrappers cause runtime overhead which, however, can be significantly reduced by relaxing the degree of monitoring trustworthy components. In order to support the decision, whether a component can be trusted, we developed a special trust information service. This service collects evaluation reports of a particular component running in various applications which are provided by the different security wrappers. Based on the evaluation reports, the trust information service computes a so-called trust value which is delivered to the security wrappers, and a wrapper adjusts the degree of supervision of a component based on its trust value. The use of the security wrappers as well as of the trust management approach is clarified by means of an e-commerce example realizing the automated procurement of goods for a fastfood restaurant.

3 citations


Journal ArticleDOI
TL;DR: A unified declarative framework for modeling policies, goals, pre-, and post-conditions, which allows for a more dynamic interaction between requester and provider and is embedded within the standard web service technologies.
Abstract: ABSTRACT The term Service Oriented Architecture describes a vision in which a large number of services are available via standard Internet protocols and applications can be assembled in a fast and flexible way an top of these services. We argue that the semantics of service behavior and policies need to be made explicit in order for this vision be become a reality. We propose a unified declarative framework for modeling policies, goals, pre-, and post-conditions, which allows for a more dynamic interaction between requester and provider. Specifically, we show how policies can be used to select a suitable provider and how a requester can invoke a service without prior knowledge of the required parameters and message formats. Most notably, our framework is embedded within the standard web service technologies.

3 citations


Journal ArticleDOI
TL;DR: The actual realisation of a distributed sensor network as well as (some) analyses and statistics based upon the data gathered are discussed.
Abstract: 1 ABSTRACT Intrusion detection systems (IDS) serve to assess what types of risks computer networks are facing. Since a single IDS usually doesn't “see” but a small portion of a network, it is advisable to try to acquire a more holistic view by placing several (independent) sensors and to analyse all the data gathered. One of the goals of the project was to look at the Internet in its entirety in order to better understand how attacks compare in different subnets or regions. This is already very useful when investigating worms and viruses and could eventually lead to an early warning system. This article will discuss the actual realisation of a distributed sensor network as well as (some) analyses and statistics based upon the data gathered.

2 citations


Journal ArticleDOI
TL;DR: Für multimediale Lehr- and Lernmaterialen eine Prozesskette von der Inhaltserstellung bis zur Publikation ist durch die hohen Nutzungszahlen und die Reaktion von Nutzerinnen und Nutzern gegeben.
Abstract: ZUSAMMENFASSUNG Das System des Tübinger Internet Multimedia Server (timms) [1] implementiert für multimediale Lehr- und Lernmaterialen eine Prozesskette von der Inhaltserstellung bis zur Publikation. Am Beispiel von Videofilmen werden die verschiedenen Glieder dieser Kette vorgestellt und aus den Blickwinkeln Technik, Organisation und Dienstleistung beleuchtet. Die Motivation zu Betrieb und Weiterentwicklung dieses Systems ist durch die hohen Nutzungszahlen und die Reaktion von Nutzerinnen und Nutzern gegeben [2].

2 citations


Journal ArticleDOI
TL;DR: This paper motivates and describes the solutions defined and discussed within 3GPP, namely the introduction of new nodes, new bearers and new procedures to efficiently support multicast services.
Abstract: ABSTRACT In line with the growing interest in efficient data distribution services to large mobile user groups, 3GPP is standardizing the introduction of support for multicast services into GSM and WCDMA networks. The mobile infrastructure needs to be enhanced in the wireless and in the wireline parts to support new signaling and payload transport procedures. Also mobility, charging and radio resource handling aspects have to be considered. Starting from group distribution services and their requirements, this paper motivates and describes the solutions defined and discussed within 3GPP, namely the introduction of new nodes, new bearers and new procedures to efficiently support multicast services.

Journal ArticleDOI
TL;DR: Ein Projekt vorgestellt werden, das seit Mitte des Jahres 2000 an der Universitätsbibliothek Tübingen vorangetrieben wird, um die vom Datenmodell her mögliche Erweiterung auf weitere Medientypen nicht von vornherein auszuschließen.
Abstract: Im Folgenden soll ein Projekt vorgestellt werden, das seit Mitte des Jahres 2000 an der Universitätsbibliothek Tübingen (UBT) vorangetrieben wird. Der Projektname – gleichzeitig der Name des Informationsangebots, das im Mai 2003 für die Öffentlichkeit zugänglich gemacht wurde – ist gleichzeitig zu weit und zu eng gefasst. Zu eng, weil es drei, ursprünglich voneinander unabhängige Projekte beinhaltet – die Bestandsicherung der Tonträgersammlung der UBT durch ihre Digitalisierung, die Erschließung dieser Sammlung sowie die Bereitstellung der Digitalisate im Intranet der Bibliothek. Zu weit, weil die LMB derzeit nur Audioobjekte und deren Metadaten enthält. Das Projektteam hat den Namen jedoch bewusst weit gefasst, um die vom Datenmodell her mögliche Erweiterung auf weitere Medientypen nicht von vornherein auszuschließen.

Journal ArticleDOI
TL;DR: Dieser Beitrag berichtet über die Motive für CAMPUS, die Konzepte des Systems und üby Erfahrungen aus mehr als zwei Jahren Betrieb, die weitere Entwicklung des Informationssystems CAMPus vorgestellt.
Abstract: ZUSAMMENFASSUNG An vielen wesentlichen Wertschöpfungsprozessen einer Universität sind zahlreiche Nutzergruppen und Organisationseinheiten aus der Hochschule beteiligt. In der Praxis endet die IT-Unterstützung solcher Prozesse allerdings häufig an den Grenzen zwischen Nutzergruppen oder Organisationsstrukturen. Das integrierte Informationssystem CAMPUS der Rheinisch-Westfälischen Technischen Hochschule (RWTH) Aachen hat die hochschulweite Unterstützung Organisationseinheiten und Nutzergruppen übergreifender Prozesse zum Ziel. Auf der Basis aktueller Web- und Datenbanktechnologie bietet sich heute die Chance komfortablere, beschleunigte und effizientere Dienste für hochschulweite Prozesse zu etablieren. Möglich wird dies durch direkte Einbeziehung aller beteiligten Nutzergruppen und Organisationseinheiten und die Einbindung der bestehenden heterogenen IT-Infrastruktur in eine integrierende webbasierte Plattform. Dieser Beitrag berichtet über die Motive für CAMPUS, die Konzepte des Systems und über Erfahrungen aus mehr als zwei Jahren Betrieb. Am Beispiel des hochschulweiten Prozesses Veranstaltungsorganisation werden die Vorgehensweise und die Vorteile eines integrierten Informationssystems konkret aufgezeigt. Vor dem Hintergrund aktueller Umwälzungen, wie etwa der Einführung modularisierter Studiengänge (Bolognaprozess) und Studienkonten, wird die weitere Entwicklung des Informationssystems CAMPUS vorgestellt.

Journal ArticleDOI
TL;DR: In diesem Beitrag wird ein kurzer Überblick über wesentliche Entwicklungen des Mobilitätsmanagement von 2G bis 3,5G gegeben, dazu werden die verschiedenen Mobilitatsformen klassifiziert.
Abstract: ZUSAMMENFASSUNG Die Bereitstellung von Mechanismen zur Lokalisierung von Teilnehmern bzw. deren Endgeräten und zur Aufrechterhaltung von Sitzungen mobiler Dienste ist Aufgabe des Mobilitätsmanagements. Insbesondere die globale Verfügbarkeit von Diensten in 3G und 3,5G Netzen erfordert eine umfassende Erweiterung des Mobilitätsmanagements der 2G Netze. Ziel ist es, dem Teilnehmer eine transparente betreiber-, system- und geräteübergreifende Verfügbarkeit von Diensten zu gewährleisten. In diesem Beitrag wird ein kurzer Überblick über wesentliche Entwicklungen des Mobilitätsmanagement von 2G bis 3,5G gegeben. Dazu werden die verschiedenen Mobilitätsformen klassifiziert. Zu den einzelnen Klassen werden offene Fragestellungen adressiert.

Journal ArticleDOI
TL;DR: An infrastructure that helps system administrators to identify a newly published vulnerability on the site hosts, to evaluate the vulnerability threat with respect to the administrators' security priorities, and to repair the vulnerable hosts is proposed.
Abstract: ABSTRACT We propose an infrastructure that helps system administrators to identify a newly published vulnerability on the site hosts, to evaluate the vulnerability threat with respect to the administrators' security priorities, and to repair the vulnerable hosts. The infrastructure foundation is the vulnerability semantics, a small set of attributes for vulnerability definition. We demonstrate that with a few attributes it is possible to define the majority of the known vulnerabilities in a way that facilitates their accurate identification, and enables the administrators to rank the vulnerabilities found according to the organization's security priorities. A large scale experiment demonstrates that our infrastructure can find significant vulnerabilities even in a site with high security awareness.

Journal ArticleDOI
TL;DR: Im Besitz der Universitätsbibliothek Heidelberg befinden sich unter anderem 27 spätmittelalterliche Bilderhandschriften aus drei der bekanntesten deutschen Werkstätten des 15.
Abstract: Im Besitz der Universitätsbibliothek Heidelberg befinden sich unter anderem 27 spätmittelalterliche Bilderhandschriften aus drei der bekanntesten deutschen Werkstätten des 15. Jahrhunderts. Die ehemals zur Bibliotheca Palatina gehörenden Handschriften stammen aus der sogenannten Elsässische Werkstatt von 1418, dem Hagenauer Unternehmen des Diebold Lauber und der Schwäbischen Werkstatt des Ludwig Henfflin. Alle drei Werkstätten ließen Auftragsarbeiten durch angestellte Schreiber und Illustratoren ausführen, boten ihre Erzeugnisse aber auch im Handel an. Typisch für diese Handschriften ist der vorherrschende Gebrauch der deutschen Sprache, die Verwendung von Papier und der Einsatz einer gut lesbaren Bastarda. Hinzu kommen formelhafte Illustrationen, die der Erläuterung und Interpretation des Textes dienen.

Journal ArticleDOI
TL;DR: Das DLmeta Datenmodell wird im Artikel „DLmeta2002 – Evolution and Einsatz eines Meta-Datenmodells“ in diesem Heft ausführlich beschrieben.
Abstract: Zur formalen Beschreibung elektronischer Dokumente (Metadaten) existiert ein weltweit akzeptierter Standard, der Dublin Core [DC]. Entstanden ist dieser aus der Notwendigkeit, elektronische Dokumente, insbesondere Webseiten, mit beschreibenden Informationen zu versehen, die etwa von Suchmaschinen oder Archivsystemen ausgewertet werden können. Dabei handelt es sich zunächst um Informationen, wie sie von Bibliotheken bei der Katalogisierung verwendet werden, beispielsweise den Autor, Titel, Schlagworte usw. Im Dublin Core Standard sind auch Elemente beschrieben, mit denen multimediale Dokumente grob klassifiziert werden können. Für die Verwendung in digitalen Bibliotheken (Digital Libraries, daher der Name DLmeta) sind diese jedoch erstens nicht ausreichend und zweitens nicht exakt genug definiert. Für das DLmeta Modell wurde deshalb der Dublin Core Standard entsprechend erweitert. Das DLmeta Datenmodell wird im Artikel „DLmeta2002 – Evolution und Einsatz eines Meta-Datenmodells“ in diesem Heft ausführlich beschrieben. Die Definition des Datenmodells, sowie die in diesem Artikel beschriebenen Werkzeuge sind unter [DLmeta] zu finden.

Journal ArticleDOI
TL;DR: Das Datenmodell DLmeta, für die Erhebung bibliographischer, technischer and organisatorischer Angaben, sog.
Abstract: ZUSAMMENFASSUNG Das Datenmodell DLmeta wurde für die Erhebung bibliographischer, technischer und organisatorischer Angaben, sog. Metadaten, zu beliebigen Objekten entwickelt. In einer ersten Phase wurden einige Projekte im Land Baden-Württemberg umgesetzt, die bibliografische Daten durch Einsatz von DLmeta in einem zentralen Nachweissystem ablegen konnten. Aufbauend auf den Erfahrungen, die während dieser Pilotphase gesammelt wurden, konnte das Modell gestrafft und an neue Anwendungen angepasst werden. Als ein grundlegendes Werkzeug für den Umgang mit DLmeta-Daten wurde ein spezieller Editor eingesetzt, der nach Änderung des Modells zu einem allgemeineren Werkzeug für die Verarbeitung von XML-Daten weiterentwickelt werden konnte.

Journal ArticleDOI
TL;DR: Eine prototypische Realisierung einer Architektur vorgestellt, die ein SOAP-over-E-Mail-Binding realisiert and dabei typische Randbedingungen auf mobilen Kleinstgeräten berücksichtigt.
Abstract: ABSTRACT Das HTTP Protokoll hat sich in weiten Bereichen als Quasi-Standard zur Übertragung von SOAP Nachrichten durchgesetzt. Geht es jedoch darum, Web Services auf mobilen Geräten anzubieten oder Web Services von mobilen Geräten aus zu konsumieren, so wirkt sich die Einheit von HTTP-Request und HTTP-Response häufig nachteilig aus. Dieser Beitrag diskutiert, wie sich alternativ asynchrone Protokolle für die Übertragung von SOAP Nachrichten einsetzen lassen. Weiterhin wird eine prototypische Realisierung einer Architektur vorgestellt, die ein SOAP-over-E-Mail-Binding realisiert und dabei typische Randbedingungen auf mobilen Kleinstgeräten berücksichtigt.

Journal ArticleDOI
Alexander Keller1, Heiko Ludwig1
TL;DR: Durch die Verwendung of Policies ist ein Managementsystem in der Lage, auf unterschiedlichste Ereignisse korrekt zu reagieren, ohne das seine zugrundeliegende Programmlogik modifiziert werden mus.
Abstract: 1. Einleitung Im Systemmanagement werden Policies als ein zentrales Werkzeug angesehen, um die kontinuierlich steigende Komplexitat und Dynamik verteilter Systeme zu bewaltigen und derzeit uberwiegend manuell durchgefuhrte Aufgaben zukunftig maschinell zu erledigen. Durch die Verwendung von Policies erhofft man sich eine signifikante Automatisierung der Managementprozesse, da ein Administrator im Sinne eines „Management by Objectives“ Verhaltensregeln definiert, die ein Managementsystem in die Lage versetzen sollen, anhand dieser vorgefertigten Regeln selbstandig zu entscheiden, wie es sich beim Eintreffen bestimmter Ereignisse verhalt. Durch die Verwendung von Policies ist ein Managementsystem in der Lage, auf unterschiedlichste Ereignisse korrekt zu reagieren, ohne das seine zugrundeliegende Programmlogik modifiziert werden mus [39]. Die folgende allgemein akzeptierte Definition von Policies spiegelt dieses Prinzip wieder: „Policies are rules governing the choices in behaviour of a system“ [35]. Eine Policy beschreibt ublicherweise eine Kombination aus Bedingung(en) und Aktion(en), die durch das Eintreffen eines Ereignisses getriggert werden. Ferner sind Policies persistent und beschreiben wiederholbare Verhaltensmuster; eine einmalig bzw. ad-hoc durch einen Administrator oder ein Managementsystem ausgefuhrte Aktion wird nicht als Policy betrachtet.

Journal ArticleDOI
TL;DR: Diskless Clients lassen sich in ihrer Zahl unter den Bedingungen performanter Server and schneller Netzwerke einfach skalieren und warten lediglich eine einheitliche Softwarebasis and gemeinsame Konfigurationsdateien.
Abstract: ZUSAMMENFASSUNG Linux Diskless Clients bieten sich wegen einer ganzen Reihe von Vorteilen an, als Basis einer Kursraumumgebung eingesetzt zu werden. Sie booten von einem gemeinsamen Server, präsentieren auf allen Maschinen eine einheitliche Umgebung, sind sehr robust im Betrieb und einfach zu warten. Darüberhinaus erweitern sie das Spektrum möglicher Betriebsarten der Arbeitsplatzmaschinen und erlauben einen hochflexiblen Kursbetrieb. Zum Einsatz kommt hierfür die SuSE-Linuxdistribution, die durch einige wenige Skripten für den Diskless-Betrieb modifiziert wird. Administratoren setzen nicht mehr jede Maschine einzeln auf, sondern warten lediglich eine einheitliche Softwarebasis und gemeinsame Konfigurationsdateien. Hierfür bietet sich beispielsweise die Verwendung einer LDAP-Datenbank an, die bereits für die Benutzerverwaltung eingesetzt wird. Diskless Clients lassen sich in ihrer Zahl unter den Bedingungen performanter Server und schneller Netzwerke einfach skalieren. Der Einsatz von VMware schafft virtuelle Rechner, die auf der Basis der diskless Clients Windowsarbeitsplätze anbietet.

Journal ArticleDOI
TL;DR: Neben dem Protokoll der Open Archives Initiative f for einen internationalen Datenaustausch wurde die Möglichkeit implementiert, Uniform Resource Names zu vergeben and zu registrieren, um eine langfristige stabile Adressierung of Online-Publikationen zu gewährleisten.
Abstract: Das elektronische Volltextinformationssystem OPUS, das aus einem DFN-Projekt hervorgegangen ist, hat sich zu einem stabilen Produkt im Hochschulbereich entwickelt. Aufgrund der Verbreitung wurden eine Reihe von aktuellen Entwicklungen im Bereich des elektronischen Publizierens von Hochschulschriften in einer technisch vollkommen uberarbeiteten Version des Systems funktional aufgegriffen. Neben dem Protokoll der Open Archives Initiative fur einen internationalen Datenaustausch wurde die Moglichkeit implementiert, Uniform Resource Names zu vergeben und zu registrieren, um eine langfristige stabile Adressierung von Online-Publikationen zu gewahrleisten.

Journal ArticleDOI
TL;DR: The design, realization and operation of a honeynet built within the German Research Network (DFN) will be described and concepts for continuously monitoring and securing the honeynet are introduced.
Abstract: A honeynet is a special prepared network which is not used in normal business. It is a kind of playground to watch and learn the tactics of crackers. The only purpose of a honeynet is to be probed, attacked or compromised. During the operation other systems may not be harmed by an attack originated within the honeynet. In this paper the design, realization and operation of a honeynet built within the German Research Network (DFN) will be described. Concepts for continuously monitoring and securing the honeynet are introduced. A selection of the results of the operation phase will be presented as well.

Journal ArticleDOI
TL;DR: Wir schlagen in diesem Beitrag ein auf WS-Coordination and WS-Transaction aufbauendes Ablaufmodell für das Grid-Data-Computing vor, das die beschriebenen Defizite durch die Einführung spezieller Dienste and Protokolle ausräumt.
Abstract: ZUSAMMENFASSUNG Grid-Data-Services sind auf Web-Service-Technologien beruhende Dienste, die dynamisch in komplexe, datenintensive Verarbeitungsvorgänge einbezogen werden können (Grid-Data-Computing), die wiederum eines Transaktionsschutzes bedürfen. Aufgrund der Nähe zu Web-Services kann eine Transaktionskontrolle auf Basis der Spezifikationen WS-Coordination und WS-Transaction vorgenommen werden. Diese erfüllen jedoch die Anforderungen des Grid-Data-Computing nur unzureichend, da häufig auftretende Ablaufmuster nicht angemessen unterstützt werden. Beispielsweise ist es nicht möglich, eine Transaktion durch eine Anfrage an einen Grid-Data-Service zu initiieren, die Ergebnisse zur Verarbeitung an einen dritten Teilnehmer weiterzuleiten und diesen die Transaktion beenden zu lassen. Ebenso wird der dynamischen Fortpflanzung von Verarbeitungsvorgängen über vielfältige Grid-Data-Services hinweg nicht konsequent Rechnung getragen. Wir schlagen in diesem Beitrag ein auf WS-Coordination und WS-Transaction aufbauendes Ablaufmodell für das Grid-Data-Computing vor, das die beschriebenen Defizite durch die Einführung spezieller Dienste und Protokolle ausräumt.

Journal ArticleDOI
TL;DR: In diesem Beitrag wird ein entsprechendes Framework dienstorientierter Kooperationsmuster vorgestellt, das im Kontext des Projektes FRESCO entstanden ist.
Abstract: ZUSAMMENFASSUNG Webservices stellen grundlegende Bausteine zur Repräsentation auch komplexerer verteilter Anwendungen bereit. Sie sind jedoch als alleiniges Repräsentationsmittel für derartige Anwendungen oft nicht ausreichend. Denn solche Anwendungsdienste (z.B. ein komplexer Logistikdienst) unterscheiden sich von Webservices zum einen hinsichtlich ihres funktionalen Umfanges, insbesondere jedoch hinsichtlich der Komplexität der Interaktionsprozesse, die zwischen den an der Erbringung des komplexen Dienstes beteiligten Dienstteilnehmern ablaufen. Eine angemessene Repräsentation derartiger Anwendungsdienste erfordert deshalb u.a. auch die Berücksichtigung genereller Prozessmodellierungstechniken – wie etwa aus Workflowkonzepten bekannt. Dabei beschreiben solche Prozessmodelle zunächst die operationale Koordinationslogik für Webservices, mit denen sich verschiedene Teilprozesse an der Ausführung eines komplexen Anwendungsdienstes beteiligen. Sie repräsentieren dann aber auch Konzepte der Kooperationslogik, die der gemeinsamen Erstellung und Erbringung der komplexen Dienstleistung zu Grunde liegt. Die Erfassung dieser Zusammenhänge und ihre Nutzung bei der Automatisierung des gesamten (Anwendungs-) Dienstlebenszyklusses erfordert (gegenüber bisherigen Webservices) erweiterte Entwurfs- und Ausführungsmodelle sowie deren Unterstützung durch geeignete Abstraktions- und Strukturierungshilfsmittel. In diesem Beitrag wird ein entsprechendes Framework dienstorientierter Kooperationsmuster vorgestellt, das im Kontext des Projektes FRESCO entstanden ist. Der Ansatz beinhaltet u.a. ein konzeptionelles Dienstmodell, eine workflowbasierte Systemarchitektur sowie Mechanismen zur Automatisierung einer Systemunterstützung für den gesamten Dienstlebenszyklus. Als technische Basis für die Umsetzung dieses Frameworks als Systemplattform zur Realisierung von komplexen Anwendungsdiensten dienten aktuelle OGSA Grid- und BPEL4WS-Prozesstechnologien.

Journal ArticleDOI
TL;DR: Nach Abschluss ihrer Ausbildung verfügen die studentischen Hilfskräfte über fundierte Kenntnisse in den Bereichen Netzwerktechnik, Betriebssysteme sowie Internet Publishing and können entsprechend in den Instituten zur Systemadministration and Beratung eingesetzt werden.
Abstract: ZUSAMMENFASSUNG In den Instituten und Einrichtungen der Universität Freiburg werden dezentrale DV-Systeme wie CIP-Pools und auch die Arbeitsplatz-PCs der Mitarbeiter und Mitarbeiterinnen häufig von studentischen Hilfskräften betreut. Um dem Mangel an zuverlässigen und kompetenten studentischen DV-Kräften abzuhelfen, hat das Rechenzentrum in Zusammenarbeit mit dem Rektorat und verschiedenen Einrichtungen der Universität den mehrstufigen Ausbildungsgang „DV-Betreuung durch Studierende“ aufgebaut. Nach Abschluss ihrer Ausbildung verfügen die studentischen Hilfskräfte über fundierte Kenntnisse in den Bereichen Netzwerktechnik, Betriebssysteme sowie Internet Publishing und können entsprechend in den Instituten zur Systemadministration und Beratung eingesetzt werden. Der Nachweis ihrer Ausbildung und praktischen Tätigkeit erfolgt über ein offizielles qualifiziertes Zertifikat der Universität.

Journal ArticleDOI
TL;DR: This paper addresses three main areas of current research in a wholistic approach on Quality-of-Service (QoS) and applications characteristics and identifies open technical problems, which require further work.
Abstract: ABSTRACT Since business and commercial requirements determine the driving force for Internet service offerings, Quality-of-Service (QoS) and applications characteristics have to be taken into consideration for a managed service delivery in the Internet next to the economic dimension of charging those. Economic management principles are applied in a number of traditional markets, but only recently have gained increasing interest in the control of Internet services and traffic with respect to economic efficiency, user acceptability, and technical feasibility. This paper addresses these three main areas of current research in a wholistic approach and identifies open technical problems, which require further work.