TU Wien:Gesellschaftswissenschaftliche Grundlagen der Informatik VU (Steinhardt)/Mitschrift SS05 Wiki

Aus VoWi
Zur Navigation springen Zur Suche springen

Vorwort[Bearbeiten | Quelltext bearbeiten]

Ich möchte an dieser Stelle darauf hinweisen, dass es sich hier um eine Mitschrift zur Lehrveranstaltung „Informatik und Gesellschaft 2“ im Sommersemester 2005 handelt. „Gesellschaftswissenschaftliche Grundlagen der Informatik“, laut Übergangsbestimmungen für die Bachelorstudien an der TU Wien zwar äquivalent zu „Informatik und Gesellschaft 2“, ist allerdings eine andere Lehrveranstaltung. Der Stoff ist über weite Strecken derselbe, jedoch gibt es auch große Unterschiede (welche das genau sind, entzieht sich meiner Kenntnis). Insofern ist diese Mitschrift nur bedingt zum Lernen für die Prüfung aus „Gesellschaftswissenschaftliche Grundlagen der Informatik“ geeignet.

Die Vorlesung „Informatik und Gesellschaft 2“, die ihm Rahmen der fünf Bakkalaureatsstudien an der TU Wien besucht werden muss, mag durchaus interessante Aspekte der Informatik ansprechen, dennoch ist dieses Fach bei weitem nicht das wichtigste des ganzen Studiums, wie der Vortragende dies ab und zu andeutet. Um trotz der nicht besonderen Vortragsweise eine große Schar von Hörern in die Vorlesungen zu bewegen, hat sich der Vortragende einerseits ein Bonuspunktesystem ausgedacht. So ist es möglich, im Anschluss an jede Vorlesungseinheit einen Code abzuholen, mit Hilfe dessen eine Frage zu dem in der Vorlesung gebrachten Stoff eingeschickt werden kann. Für jede sinnvolle, korrekte Frage erhält der Student einen Zusatzpunkt (wenn dies auch einige Monate lang auf sich warten lassen kann).

Doch damit nicht genug; um noch mehr Hörer in die Vorlesung zu locken, hat der Vortragende beschlossen, einfach während der Lehrveranstaltung keine Unterlagen (Folien zum Download im Internet oder Skriptum) zur Verfügung zu stellen. Man sollte also in die Vorlesung marschieren und dort in höllischem Tempo alle Gedanken, die der Vortragende im Laufe seines eineinhalbstündigen Vortrages von sich gibt, auf ein Blatt Papier kritzeln. Erst am Ende des Semesters sind sogenannte „Vorlesungsunterlagen“ erhältlich (selbstverständlich nicht vor oder nach einer Vorlesungseinheit erhältlich, sondern separat am Sekretariat des Instituts zu erwerben). Doch meiner Meinung nach ist auch mit diesen „Vorlesungsunterlagen“ nicht allzu viel anzufangen, da sie zwar den in der Vorlesung gebrachten Stoff umreißen, dazu aber eine riesige Masse an Zusatzmaterialien mitbringen, die für die Lehrveranstaltung an sich eher irrelevant sind. Bewusst werden daher diese „Vorlesungsunterlagen“ nicht als Skriptum bezeichnet.

Doch auch diese Idee des Vortragenden, um mehr Hörer anzulocken, geht nicht ganz auf, wie die im Laufe des Semesters beträchtlich schrumpfende Anzahl an Hörern zeigt. Auch findet sich in den einzelnen Vorträgen kaum jemand, der eifrig mitschreibt. Entweder schlafen die Studenten oder sie lauschen mehr oder weniger gelangweilt dem Vortrag, aber mitgeschrieben wird eher selten. Ab und zu findet sich auch jemand - auch ich zähle mich zu diesen Personen -, der die Folien mit Hilfe eines digitalen Fotoapparats festhält.

Ich habe mich darüber hinaus dafür entschieden, die Inhalte der Folien in diesem Werk zusammenzufassen und der Allgemeinheit zur Verfügung zu stellen. Ich kann selbstverständlich keine Garantie dafür abgeben, dass irgendetwas korrekt ist oder auch alles Wesentliche enthalten ist. Freilich kann es, genauso wie alle Unterlagen, die seitens des Vortragenden zur Verfügung gestellt werden, nicht den Besuch der Vorlesung ersetzen. Dennoch glaube ich, dass dieses Werk eine ganz gute Grundlage für die Vorbereitung auf die Prüfung aus „Informatik und Gesellschaft 2“ darstellt.

Wien, im Juni 2005 Paul Staroch


Mit dem Einverständnis von Paul Staroch habe ich Datei:TU Wien-Gesellschaftswissenschaftliche Grundlagen der Informatik VU (Steinhardt) - Mitschrift SS05.pdf wikifiziert und hier veröffentlicht, auf das von nun an an ihr kollaborativ weitergearbeitet werden kann. Ich hoffe so können die bereits erwähnten Lücken geschlossen und die Mitschrift auf den neusten Stand gebracht werden. Apfelsafts Updates sind hier nicht enthalten, da ich sie noch nicht kannte, bevor ich diese Seite erstellt habe.

Österreich, im September 2008 Mathias Panzenböck

Wissenschaft ist kritisch[Bearbeiten | Quelltext bearbeiten]

Moderne und Spätmoderne[Bearbeiten | Quelltext bearbeiten]

Als Moderne bezeichnet man jenes Zeitalter, welches durch die Erfindung der Dampfmaschine und der damit verbundenen beginnenden Industrialiserung eingeleitet wird. Zu Beginn der Moderne wurde die Technik als ein Mittel zur Verbesserung der Lebensbedingungen der Menschen gesehen. Der vorherrschende Fortschrittsglaube setzte technischen Fortschritt mit gesellschaftlichem Fortschritt gleich. Als eine der ersten Personen, welche diese Ansicht vertraten, gilt Francis Bacon (1561-1626), der die mittelalterliche Logik kritisierte.

In der Moderne war man der Ansicht, dass die Technik die Lösung allen Übels sei, dass sie unter allen Umständen zur Verbesserung der Lebensbedingungen der Menschen beitragen müsse. Vielfach wurde die Ansicht vertreten, dass das, was technisch machbar sei, auch umgesetzt werden müsse. Günther Anders (1902-1992) spricht in diesem Zusammenhang in seinem Hauptwerk „Die Antiquiertheit des Menschen“ (1956) vom technologischen Imperativ, in Anlehnung an Immanuel Kants kategorischen Imperativ.

Erst in der Spätmoderne, welche erst in der zweiten Hälfte des 20. Jahrhunderts begann, wurde dieser Fortschrittsglaube brüchig; man erkannte zunehmend, dass

  • der technische Fortschritt mitunter erhebliche Nebenwirkungen mit sich bringt,
  • diese Nebenwirkungen nicht allein technisch zu beseitigen sind und
  • die Gefahr besteht, dass diese Nebenwirkungen gegenüber den Vorteilen der Technik überwiegen.

Diese Erkenntnisse führen unmittelbar zur Risikogesellschaft.

Gefahr und Risiko[Bearbeiten | Quelltext bearbeiten]

In der Risikogesellschaft werden zunehmend die Risiken des technologischen Fortschritts erkannt. Industrieller Reichtum und technologischer Fortschritt gehen immer mit gewissen Risiken einher, welche allerdings nicht in irgend einer Weise begrenzt, sondern vielmehr alle treffend und global sind. Dennoch kommt es zu einer Ungleichverteilung von Risiken.

Unter Gefahr versteht man nach Bonß eine Bedrohung und/oder Unsicherheit, welche

  • unabhängig,
  • nicht beherrschbar sowie
  • nicht verantwortbar

vom handelnden Menschen (dem Subjekt) ist. Eine Gefahr ist daher schicksalhaft und nicht beeinflussbar.

Ein Risiko ist eine Bedrohung und/oder Unsicherheit hinsichtlich der Handlungsfolgen, welche

  • menschlich erzeugt (also ein bewusstes Wagnis) ist und für welches die handelnde Person
  • Rechenschaft sowie
  • Verantwortung übernehmen kann/muss.

Ein Risiko ist also individuell bzw. kollektiv hergestellt und damit (zumindest zum Teil) beeinflussbar.

Bezüglich der jeweils vorhandenen Risiken und Gefahren beschreibt Beck einen sozialen Wandel im Laufe der Zeit:

  • In der vorindustriellen Gesellschaft herrschten als Gefahr in erster Linie Naturkatastrophen vor, welche aus der Sicht der Menschen durch einen Gott bzw. Götter oder Dämonen hervorgerufen wurden. Das Schicksal schien vorgegeben.
  • Die moderne Industriegesellschaft ist gekennzeichnet durch Risiken sowie Unfälle (beispielsweise im Beruf oder im Verkehr), welche durch die handelnden Menschen selbst hervorgerufen werden und zum Teil individuell vermeidbar sind (zum Beispiel Rauchen, Autofahren, Schifahren).
  • In der spätmodernen Risikogesellschaft stehen die Selbstgefährdung sowie „künstliche“ Katastrophen im Vordergrund, welche durch die handelnden Menschen kollektiv verursacht werden (wie Atomkraft oder Datenschutz) und somit größtenteils individuell nicht mehr vermeidbar sind; diese sind lediglich durch Kollektiventscheidungen beeinflussbar.

Auch die Weiterentwicklung von Informations- und Kommunikationstechnologien (I&K-Technologien, ICTs) ist somit mit potentiellen Risiken verknüpft. Notwendig sind daher

  • Risikoanalyse und
  • Risikovermeidung

sowie in weiterer Folge Technikfolgenabschätzung (auch Technikfolgenbewertung). Generell führt der Zusammenhang von Risiko und Unsicherheit zu Sicherheitsversprechen informationstechnischer Produkte, welche allerdings grundsätzlich in Frage zu stellen sind.

Risiken technologischer Entwicklungen sind (nach Perrow 1987) abhängig von

  • der Komplexität sozio-technischer Figurationen sowie
  • dem Grad der Koppelung einzelner Komponenten (lose vs. enge Koppelung).

Unter Figurationen versteht man Beziehungsgeflechte von Menschen, die durch vielfältige gegenseitige Abhängigkeiten und Bezugnahmen aufeinander gekennzeichnet sind. Sozio-technische Figurationen sind Bezieghungsgeflechte und Wechselwirkungszusammenhänge zwischen den Menschen und den technischen Produkten, welche diese verwenden.

Warum aber „sozio-technische Figurationen“ und nicht „sozio-technologische Systeme“?

Gesellschaftliche und soziale Zusammenhänge sind keine menschenlosen Systeme, es existiert kein Systemautomatismus. Diese Zusammenhänge sind vielmehr

  • gestaltet von aktiv handelnden Menschen,
  • ein komplexes Wechselwirkungsgeflecht und
  • dynamisch veränderbar.

Es gibt Veränderungsprozesse und keine Zustandsänderungen, wie es sie in einem System gäbe.

Unter dem Grad der Koppelung versteht man schließlich, wie stark ein technisches System eigenständig arbeitet und Handlungen setzt. Bei loser Koppelung sind stets Eingriffe eines Menschen notwendig, je enger die Koppelung wird, desto weniger werden diese benötigt. Bei „ganz enger“ Koppelung (Vollautomation) schließlich ist keine menschliche Einflussnahme mehr notwendig bzw. unter Umständen gar nicht mehr möglich.

Risiken technischen Fortschritts sind

  • nicht allein technischer Art, sondern
  • entstehen aus einem Zusammenspiel von
    • Nutzungssituation- und Kontext,
    • den Nutzern,
    • der Technik sowie
    • der Organisation.

Wissenschaft ist kritisch[Bearbeiten | Quelltext bearbeiten]

Aus den eben genannten Gründen ist es notwendig, dass die Wissenschaft kritisch ist. Als Beispiel ist ein Expertensystem für Rechtsanwälte zur Dokumentencodierung (Suchman, 1996) zu erwähnen, welches auf Grund einer Empfehlung von Experten nicht umgesetzt wurde, da die Qualität unter der Einführung eines solchen Systems massiv gelitten hätte.

Es besteht also eine gesellschaftliche Verantwortung der Informatiker bzw. der Informatik an sich. In diesen Bereich fallen die Richtlinien des Vereins deutscher Ingenieure, VDI (hier nur ein Auszug daraus):

Ingenieurinnen und Ingenieure

  • verantworten die Folgen ihrer beruflichen Arbeit sowie die sorgfältige Wahrnehmung ihrer spezifischen Pflichten,
  • sind sich über Zusammenhänge technischer, gesellschaftlicher, ökonomischer und ökologischer Systeme sowie deren Wirkung in der Zukunft bewusst,
  • vermeiden Handlungsfolgen, die zu Sachzwängen und zur Einschränkung selbstverantwortlichen Handlens führen und
  • diskutieren widerstreitende Wertvorstellungen fach- und kulturübergreifend.

Wichtigster Grundsatz des VDI ist: „Das Ziel allen technischen Handelns soll es sein, die menschlichen Lebensmöglichkeiten durch Entwicklung und sinnvolle Anwendung technischer Mittel zu sichern und zu verbessern.“

Social Informatics[Bearbeiten | Quelltext bearbeiten]

Unter Social Informatics werden nach King (1999/2001) die sozialen und gesellschaftlichen Aspekte der Computerisierung zusammengefasst, und zwar im Speziellen die systematische interdisziplinäre Erforschung von ICTs. Diese Erforschung erfolgt hinsichtlich dreier Aspekte:

  • Technikgenese und -gestaltung (design),
  • Techniknutzung in verschiedenen Kontexten (use) sowie
  • Konsequenzen auf unterschiedlichen Ebenen(consequences), wie beispielsweise für den Lebensalltag der Menschen, für Organisationen oder für gesellschaftlich-kulturelle Zusammenhänge.

Es besteht dabei eine Wechselwirkung zwischen ICTs und institutionellen sowie kulturellen Kontexten.

Als Beispiel für eine zu enge Sichtweise ist die Telearbeit zu sehen, die bereits in den 80er-Jahren hätte eingeführt werden sollen. Den Mitarbeitern wurde zu dieser Zeit nur der Zugang zum Hostrechner von außerhalb der Firma gewährt, nicht jedoch zum Firmennetzwerk, was allerdings die Produktivität der Mitarbeiter stark einschränkte, da diese nicht zu allen benötigten Informationen Zugang haben (heute gibt es Systeme wie VPN [Virtual Private Network], mit Hilfe derer von einem Clientrechner ein Tunnel zu einem Firmennetzwerk herstellen werden kann). Ganz abgesehen davon wurde auch behauptet, dass durch Telearbeit der Verkehr reduziert würde, was sich allerdings ebenfalls als falsch herausgestellt hat, da die Mitarbeiter der Firmen nicht mehr zur Firma fahren, sondern andere Wege erledigen, anstatt, wie in dieser einfachen Sichtweise, „brav“ daheim bleiben.

Nach King beeinflusst der soziale Kontext der Entwicklung sowie des Gebrauchs von ICTs die Gebrauchsweisen von ICTs, die ihrerseits Folgen für die Arbeit, die Organisationen und soziale Beziehungen mit sich bringen. Einfaches Beispiel ist die Einteilung von Operationssälen in einem Krankenhaus, die grundsätzlich nicht nach einem rationalen Schema erfolgt, die computergestützte Umsetzung allerdings rationale Rahmenbedingungen erfordert.

Alltagstaugliche Computer- und IT-Systeme erfordern die Entwicklung bzw. das Design komplexer „sozio-technischer Konfigurationen“ (keine Systeme!); es geht dabei nicht nur um die Entwicklung, die Installation und den Gebrauch neuer Technologien.

Produktivitäts-Paradoxon[Bearbeiten | Quelltext bearbeiten]

Zwischen 1970 und 1980 war man der Ansicht, dass die Nutzung von Computern grundsätzlich zu einem Produktivitätsgewinn führen müsse. Als Folge führten Firmen große Investitionen in Computer- und Telekommunikationstechnologien durch.

Zur Hälfte der 80er-Jahre mehrten sich jedoch die Befunde, dass die Arbeitsproduktivität nicht stetig ansteige. Es schien, als führten Investitionen in Computertechnologie nicht zwangsläufig zu größeren Produktivitätsschüben. Der Nobelpreisträger Robert Solow meinte dazu im Jahre 1987: "You can see the computer age everywhere but in the productivity statistics." Man zweifelte zunehmend daran, dass Computerisierung zu Produktivitätsverbesserung führe.

Im Weiteren stellte sich natürlich die Frage, warum das so ist. Es gibt dafür mehrere soziale Erklärungen:

  • Die Entwicklung von Systemen bringt immer Implementationsprobleme mit sich.
  • Die Gestaltung der Systeme ermöglicht nur in den seltensten Fällen eine effiziente Erleichterung der Arbeit, da meistens die Nutzungssituation außer Acht gelassen wird.
  • Entgegen der Ansicht, dass durch die Computerisierung weniger qualifiziertes Personal benötigt werde, ist weiterhin qualifizierte Facharbeit erforderlich.

Voraussetzung für einen Produktivitätsgewinn mittels Computerisierung sind in jedem Fall angemessene Praktiken in Organisationen. Es gab genügend Evidenzen für die Annahme, dass die damaligen Strategien der Computerisierung nicht zu den erwarteten ökonomischen und sozialen Vorteilen führen. Gute Technologien alleine reichen daher nicht aus, um ökonomische und soziale Vorteile hervorzubringen.

Organizational Informatics (Kling, 2000) beschäftigt sich daher mit der Untersuchung der Rolle und Funktion der Computerisierung bei der Gestaltung von Arbeit und Organisationsstrukturen.

Ziele von Social Informatics[Bearbeiten | Quelltext bearbeiten]

Erklärtes Ziel von Social Informatics ist es, zuverlässiges Wissen über ICTs und sozialen Wandel zu generieren; dieses Wissen fußt auf systematischer empirischer Forschung. Es soll der Information und der Einflussnahme auf die öffentliche Politdiskussion sowie die professionelle Praxis dienen.

Es sollen Konzepte entwickelt werden, die folgende Aspekte von ICTs verstehen helfen sollen:

  • Gestaltung (design),
  • Nutzung (use),
  • Konfiguration (configuration) sowie
  • Konsequenzen (consequences).

Damit sollen die ICTs tatsächlich für die Menschen verwendbar werden ("... to help understand the design, use, configuration and/or consequences of information and communication technologies so that they are actually workable for people.")

Dies steht im Gegensatz zur sonst oft üblichen Handlungsweise, nämlich

  • "high spirited,
  • but largely a-priori promotions of technologies.

These technologies

  • occassionally work well for people,
  • occassionally are valueable,
  • are sometimes abandoned,
  • are sometimes unusable

and thus incur predictable waste and inspire misplaced hopes." (Kling, 1999).

Ziele von Social Informatics sind also:

  • Verständnis für den gesellschaftlich-sozialen Charakter der eigenen Produkte.
  • Verständnis für mögliche Folgen der IT-Entwicklung für Gesellschaft und Kultur.
  • Verständnis für mögliche Folgen der eigenen Produkte für Arbeit und Organisation.
  • Entwicklung von Gestaltungsoptionen.
  • „Integrierte Technikfolgenabschätzung“.
  • Gesellschaftliche Verantwortung der Informatik - als Informatiker (Ethik).

Social Informatics zielt ab auf ein besseres Verständnis der Wirklichkeit, sodass ein Aufzeigen der Handlunsgmöglichkeiten des Einzelnen (in Berufsalltag und Gesellschaft) ermöglicht wird.

Dabei gibt es für die Orientierung des Einzelnen nach Kling u.a. vier wesentliche Gesichtspunkte:

  • Die normative Orientierung,
  • die analytische Orientierung,
  • die kritische Orientierung sowie
  • als Resultat der drei anderen Punkte die praktische Orientierung, welche auf Design, Gestaltung sowie Nutzung eingeht.

Die analytische Orientierung (analytisch bedeutet: auf Erkenntnisgewinn beruhend) hat ein besseres Verständnis der Wirklichkeit sowie das Aufzeigen von Handlungsmöglichkeiten des Einzelnen (in Berufsalltag und Gesellschaft) zum Ziel. Als Methode kommen dabei die theoretische Analyse sowie die Verbindung von empirischer Befundung und theoretischer Analyse zum Einsatz.

Die praktische Orientierung (praktisch bedeutet: auf Umsetzung ausgerichtet) zielt auf eine Vergrößerung der eigenen Handlungsoptionen sowie die Gestaltung besserer Produkte ab. Methoden dazu sind Reflexion und Design.

Reflexion bedeutet dabei

  • dem unmittelbaren Handlungszwang zu widerstehen,
  • nicht sofort zu handeln,
  • zuerst zurückzutreten und nachzudenken,
  • keine 1:1-Umsetzung von Reflexion in die Praxis,
  • verschiedene Alternativen aufzuzeigen (macht Entscheidungen notwendig) und
  • dass der Erkenntnisgewinn nicht von vornherein an unmittelbar verwertbarer Nützlichkeit (beispielsweise Verkäuflichkeit und Effizienzsteigerung) orientiert sein darf.

Das soll zur Erweiterung des Verständnisses von Informatik und ihrer Bedeutung in der bzw. für die Gesellschaft führen („Wissenschaft ist eine Sonderform institutionalisierter Reflexion“, Schülein/Reitze 2002, S. 25).

Zusammenhang zwischen Informatik und Gesellschaft[Bearbeiten | Quelltext bearbeiten]

Im Folgenden wird der Zusammenhang zwischen Informatik und Gesellschaft beleuchtet.

Entwicklung der ICTs[Bearbeiten | Quelltext bearbeiten]

In den 70er- und 80er-Jahren des 20. Jahrhunderts gab es zahlreiche Untersuchungen vor allem zu organisationsrelevanten Aspekten der Informations- und Kommunikationstechnologien. Grund dafür war der Einsatz von Computern vor allem in großen Firmen und Organisationen (sowie großen Forschungslabors sowie durch das Militär). Ab Mitte der 80er-Jahre hielt der Computer in den Alltag der Menschen Einzug, ab Mitte der 90er-Jahre kam es zu einer Vernetzung der Computer (Internet).

Bereits seit dem zweiten Weltkrieg gab es vollelektronisierte Großrechenanlagen. Allmählich drang der Computer in die Arbeitswelt ein, bis schließlich der PC als Stand-alone-Gerät zu Beginn der 80er-Jahre auch den außerberuflichen Alltag der Menschen erfasste. Ab ungefähr 2005 ist auch mit einer Vernetzung der Dinge („Ubiquitous Computing“) zu rechnen (die Zeitangaben beziehen sich jeweils darauf, ab wann die entsprechende Entwicklung bedeutsam wurde/wird, die prinzipielle technische Realisierung liegt meistens bereits vor diesem Zeitpunkt).

Technikdeterminismus[Bearbeiten | Quelltext bearbeiten]

In den 70er- und 80er-Jahren gingen die über die ICTs gestellten Fragen erster Linie in Richtung der unmittelbaren und direkten Auswirkungen des Computers; auf diese Weise beschrieb man einfache, direkte Effekte. Als Beispiel ist hier die Büroautomation anzuführen: Man dachte, dass die Taylorisierung der Kopfarbeit möglich sei und in weiterer Folge zu einer Dequalifizierung der Mitarbeiter führe. Solche Fragestellungen waren jedoch an einem simplen Technikdeterminismus orientiert.

Dieser Technikdeterminismus trifft jedoch in den meisten Fällen nicht zu, da er von einigen unzutreffenden Voraussetzungen ausgeht:

  • Technik ist eine gegebene unbeeinflussbare Ursache.
  • Technologie „bewirkt“ automatisch Veränderungen in den sozialen Beziehungen und in den gesellschaftlichen Strukturen; diese „automatisch bewirkten“ Veränderungen werden als „soziale Auswirkungen“ bezeichnet.
  • Technik ist autonom.

Der Zusammenhang zwischen Technik und Sozialem ist jedoch um vieles komplexer. Es besteht keine simple Beziehung zwischen Ursache und Wirkung. Gutes Beispiel hierfür sind Sekretariatskräfte im automatisierten Büro (Wagner). Es besteht dabei eine grundsätzliche Ambivalenz der Sekretariatskräfte gegenüber dem Bürocomputer:

  • Arbeitserleichterungen stehen gesundheitlicher Gefährdung gegenüber,
  • die Perfektion der Maschine der Arbeitsverdichtung,
  • die intellektuelle Attraktivität dem Kontrollverlust und
  • die Unabhängigkeit der sozialen Isolation.

Auch heute ist die Formulierung von Forschungsfragen und Aussagen immer noch häufig in technikdeterministischer Weise anzutreffen. Beispiel dafür ist die Aussage, dass die Öffentlichkeit mit Hilfe des WWW bessere Informationen als je zuvor erhalten wird. Dies ist jedoch eine falsche Herangehensweise, daher ist Skepsis angebracht, weil die Sachlage tatsächlich um vieles komplexer ist. Angebracht wären vielmehr Fragen wie:

  • Wann wird das WWW die Öffentlichkeit zu einem besseren Zugang zu Informationen befähigen?
  • Unter welchen Bedingungen?
  • Wem? (Bzw.: Wer sucht/braucht Informationen?)
  • Wofür?

Zum Beispiel:

  • Suchen Menschen im Netz Informationen, die ihnen helfen, ihren Arzt besser auszuwählen, mit der Konsequenz, dann mehr Vertrauen in ihren Arzt zu haben?
  • Oder suchen Menschen im Netz Alternativen zu Arzt-zentrierten Gesundheitsleistungen, seien es Informationen über Gesundheit, Alternativmedizin oder postoperative Pflege?

Solche Fragen bringen nicht immer eindeutige Antworten mit sich, aber sie nuancieren und fundieren das Verständnis von den Erwartungen der Menschen gegenüber ICTs und wie und wofür Menschen ICTs einsetzen. Derartige kontextbezogene Untersuchungen („contextual inquiry“, Kling) haben zum Ziel, ein analytisches Verständnis der ICT im sozialen Leben aufzubauen.

Informatik als Teil der Gesellschaft[Bearbeiten | Quelltext bearbeiten]

Notwendig für das Verständnis der grundlegenden Zusammenhänge sind einige grundlegende Aspekte der Techniksoziologie:

  • Einführung in den Zusammenhang von Technik und Gesellschaft
  • Fallbeispiel: NC- und CNC-Maschinen
  • Nähere Erläuterung des Zusammenhanges von Technik und Gesellschaft

Betrachtet werden muss die gesamte Gesellschaft: der Gesamtzusammenhang sozialen Handelns und Verhaltens, der sich im Austausch und Zusammenwirken arbeitsteiliger Tätigkeiten der Menschen herstellt (Tjaden).

Für die Definition von Gesellschaft gibt es zwei unterschiedliche Möglichkeiten:

  1. Gesellschaft ist die Gesamtheit der menschlichen Beziehungen.
  2. Gesellschaft ist die Summe der spezifischen Kennzeichen einer dauerhaften Gruppe von Menschen (Selbstreproduktion) in einem bestimmten Gebiet, an welches diese Gruppe relativ stark gebunden ist, mit eigener Kultur und eigenen Institutionen; Beispiele sind Nuer, das Vereinigte Königreich oder die USA.

Eine mögliche Zuspitzung wäre, die Gesellschaft als die Gesamtheit der Summe des „Sozialen“ zu bezeichnen. Das „Soziale“ ist dabei als „die mehr oder weniger dauerhaften Gewebe und Netzwerke aus immer wiederkehrenden Verhaltensmustern, die aus dem zwischenmenschlichen Handeln hervorgehen und auf dieses zurückwirken“, aufzufassen (Rolf Eickelpasch).

Gesellschaften und soziale Zusammenhänge

  • werden gestaltet von aktiv handelnden Menschen und sozialen Akteuren,
  • stellen ein komplexes Wechselwirkungsgeflecht dar,
  • haben eine bestimmte Gestalt und Struktur,
  • sind historisch entstanden (historische Perspektive) und
  • sind dynamisch veränderbar (es gibt nur Veränderungsprozesse, keine Zustandsänderungen).

Informatik ist also Teil der Gesellschaft; Gesellschaft und IT nehmen aufeinander wechselseitig Einfluss, es besteht jedoch kein einseitiger Wirkungszusammenhang. Der Zusammenhang zwischen technischer und gesellschaftlicher Entwicklung ist in beiden Richtungen zu betrachten. Gesellschaft, Kultur und Soziales nehmen auf die Entwicklung der Informatik Einfluss; im Gegenzug bewirkt die Informatik

  • Veränderung von Gesellschaft und Kultur,
  • Veränderung von Organisation,
  • Veränderung von Kommunikation sowie
  • Veränderung von Arbeit.

Dieser Zusammenhang zwischen Technik und sozialem Leben besteht einerseits im Bereich der Techniknutzung und andererseits bei der Technikgenese bzw. Technikentstehung. Der bereits erwähnte Technikdeterminismus ist unzutreffend. Ausgehend von der Wechselwirkung zwischen Technik einerseits und Sozialem bzw. Gesellschaftlichem andererseits kann man sagen: „Technologie trägt den gesellschaftlichen Stempel derer, die sie machen.“ (David Noble)

Analog zum Henne-Ei-Problem kann man sich aber fragen: Was war früher - die Gesellschaft oder die Technik? Es liegt nahe, dass die Gesellschaft bereits länger besteht. Das bedeutet, dass die gesellschaftliche Entwicklung der technologischen Entwicklung immer einen Schritt voraus ist, in weiterer Folge also Technik dem gesellschaftlichen Prozess (nach)folgt. Wird Technik allerdings einmal unter bestimmten Bedeutungen in einem kulturellen Kontext eingesetzt, so kommt es in den meisten Fällen zu einer Verstärkung und/oder zu einer Verfestigung der gesellschaftlichen Entwicklung, welche der Entwicklung der Technik vorangegangen ist. Diese Erscheinung wird als „verstärkende Rückwirkung“ genannt.

Im Weiteren stellt sich die Frage, wodurch die im Rahmen des Technikdeterminismus bereits angesprochenen „sozialen Auswirkungen“ bewirkt werden. Auf den ersten Blick könnte man sagen: Es ist die Technik, welche dafür verantwortlich ist. Überlegt man sich allerdings, dass die Technik wiederum auf der gesellschaftlichen Situation bzw. Entwicklung aufbaut, so kommt man zu dem Schluss, dass eben die gesellschaftliche Situation bzw. Entwicklung nicht nur für die Technik, sondern auch für die „sozialen Auswirkungen“ die Ursache darstellt. Die „sozialen Auswirkungen“ sind aber nichts anderes als Veränderungen davon, was die Technik beeinflusst hat, also Veränderungen der Gesellschaft.

Als „soziale Auswirkungen“ kann man also die Folge der Ursachen, welche die Technik hervorgebracht haben, zusammenfassen. Es handelt sich, nur um das nochmals zu verdeutlichen, um komplexe Zusammenhänge und Prozesse und nicht nur einfache Wirkungszusammenhänge im Sinne der Kausalität (Ursache-Wirkung).

Technik-Genese[Bearbeiten | Quelltext bearbeiten]

Technik entsteht nicht automatisch, ist nicht bloße Emergenz (Ausfluss) naturwissenschaftlicher Gesetzmäßigkeiten, welche angewandt werden, sondern ist Ergebnis eines gesellschaftlich-sozialen Prozesses.

Es existiert nie bloß eine Möglichkeit der Realisierung einer Technik, es gibt vielmehr immer einen weiten Bereich von Möglichkeiten und Alternativen. Die konkrete Realisierung ist von komplexen gesellschaftlich-sozialen Prozessen und Entscheidungen abhängig.

Relevante Aspekte dieser Prozesse sind

  • der gesellschaftliche Bedarf,
  • die Spezifität für eine bestimmte historische Situation,
  • die konkreten sozialen Akteure,
  • die Zwecke der Technik sowie
  • die symbolischen Bedeutungen der Technik (siehe unten) in einem spezifischen Kontext.

Die abstrakten Ausführungen werden im Folgenden konkretisiert, und zwar an einem von David Noble analysierten Beispiel: die Entwicklung numerisch gesteuerter Werkzeugmaschinen (aus Noble, David: Maschinenstürmer oder Die komplizierten Beziehungen der Menschen zu ihren Maschinen, Berlin 1986, S. 98-136).

Record-Playback- und Numerical-Control-Verfahren[Bearbeiten | Quelltext bearbeiten]

Die traditionelle Bedienung von Werkzeugmaschinen erfolgte durch Arbeiter in unmittelbarer Anwendung der Fähigkeiten des Arbeiters. Die Steuerung erfolgte über Kurbeln, Hebel und Handgriffe, es gab eine sinnliche Rückkoppelung über Hände, Augen und Ohren.

Hinsichtlich der Automatisierung erkannte man den Unterschied zur Automobilfertigung, wo große Stückzahlen gleicher Produkte hergestellt wurden. Die große Herausforderung in der Werkzeugmaschinenindustrie bestand in der Automatisierung ohne Einschränkung der Vielseitigkeit.

Eine Lösung musste zwei verschiedene Komponenten umfassen:

  • Ein Medium zur Speicherung von Informationen für die Erzeugung elektrischer Steuerimpulse.
  • Einen Mechanismus zur Umsetzung elektrischer Steuerimpulse in Maschinenbewegungen.

Die Automatisation erfolgt in zwei Schritten:

  • Die Übertragung der Informationen auf das Speichermedium.
  • Die Übertragung der Informationen vom Speichermedium auf die Maschinen (zum Beispiel Lochstreifenleser und Maschinensteuerung).

Dabei ist zu erwähnen, dass die Hauptanforderung dabei bei der Informationsspeicherung liegt, die Maschinensteuerung hingegen kaum Probleme mit sich bringt, da hierzu die Steuerung von Maschinenwaffen weiterentwickelt werden kann.

Bezüglich des Informationsspeichers gibt es zwei Realisierungen:

  • das Record-Playback-Verfahren (1946/47) sowie
  • das Numerical-Control-Verfahren (1949).

Das Record-Playback-Verfahren erfolgt in zwei Schritten:

  1. Ein Arbeiter stellt ein Werkstück her. Die Bewegungen der Maschine werden auf Magnetband oder Lochstreifen aufgezeichnet.
  2. Durch Umsetzung der auf Magnetband oder Lochstreifen aufgezeichneten Informationen in Maschinenbewegungen - also Wiederholung der vom Arbeiter durchgeführten Maschinenbewegungen - werden automatisch identische Werkstücke hergestellt.

Das Numerical-Control-Verfahren hingegen funktioniert etwas anders:

  1. Zur Programmsteuerung wird ein entsprechendes Programm geschrieben und auf ein geeignetes Medium (zum Beispiel Lochkarten) übertragen.
  2. Mit Hilfe dieser Lochkarte werden durch Wiederholungen der Maschinenbewegungen automatisch identische Werkstücke hergestellt.

Noble bezeichnet das Record-Playback-Verfahren als „Fähigkeits-Multiplikator“ - das gesamte Produktionswissen wird vom Arbeiter, der über das erste Werkstück das Magnetband (quasi als Vorlage) produziert, zur Verfügung gestellt.

NC-gesteuerte Werkzeugmaschinen („NC“ steht für Numerical Control) werden durch vorgegebene Programme gesteuert. Die manuelle Maschinenbedingung wird in den meisten Fällen auf Spannvorgänge reduziert.

Das Numerical-Control-Verfahren unterscheidet sich daher grundsätzlich vom Record-Playback-Verfahren. Das Numerical-Control-Verfahren gliedert sich in die folgenden Arbeitsschritte:

  • Erstellen einer Spezifikation,
  • Erzeugung einer mathematischen Darstellung des Werkstücks,
  • Erzeugung einer mathematischen Darstellung des Schneidwerkzeuges,
  • Aufteilung des Produktionsvorganges in eine Vielzahl einzelner Befehle,
  • Übersetzung dieser Befehle in eine numerische Form (Programmcode) sowie
  • Umsetzung dieses Programms in elektrische Befehle zur Steuerung der Maschine.

Notwendig ist hier also eine „formale Synthetisierung des Produktionsvorganges“. Die Fähigkeiten des Arbeiters sind nicht mehr in der bisherigen Art und Weise notwendig bzw. gefragt.

Der Weg zu NC-Maschinen[Bearbeiten | Quelltext bearbeiten]

Die Ausgangssituation der Werkzeugmaschinenindustrie lässt sich durch folgende Punkte charakterisieren:

  • kleiner Industriezweig,
  • hohe Abhängigkeit von konjunkturellen Schwankungen,
  • spezialisierte Maschinen,
  • hohe Preise für die Maschinen,
  • hohe Lohnkosten in der Branche,
  • Kleinserienproduktion sowie
  • wenig effiziente Produktion.

In den 40er-Jahren des 20. Jahrhunderts erhielt die Firma Parsons als Zulieferer des US-Militärs die Aufgabe, schwierige Konturen von Rotorblättern für Hubschrauber mit sehr engen Toleranzen herzustellen. Es begann die suche nach neuen Technologien zur Realisierung dieser Aufgabe. Die Idee dabei war, dass ein Computer die Position eines Bohrers steuern soll: Zuerst werden Löcher entlang der Kontur gebohrt, anschließend wird die Kontur herausgefeilt.

Eine neue Aufgabe stellte die Spezifikation für die Flügelplatten eines neuen Kampfflugzeuges dar. Die neue Methode wurde im Zuge dieser Aufgabe auf die sogenannte 3-Achsen-Fräs-Bearbeitung ausgedehnt.

Die Firma Parsons war zu dieser Zeit jedoch nicht bereit, selbst in die Entwicklung dieser neuen Technologien zu investieren. Daher traf man eine Übereinkunft, dass die Luftwaffe die Finanzierung übernehmen soll.

Im Jahre 1949 erhielt Parsons vom Militär den Entwicklungsauftrag. Ein Unterauftrag erging an das MIT (Massachussetts Institute of Technology), im Speziellen an das Servomechanism Laboratory, wo man Erfahrung mit der Steuerung von Maschinenwaffen hatte.

Zwischen 1949 und 1959 tätigte die US-Luftwaffe 62 Millionen Dollar an Ausgaben für die Forschung, Entwicklung und Nutzbarmachung der numerischen Steuerung (das meiste davon ab 1955). 1955 wurde die Spezifikation für Werkzeugmaschinen bei der Luftwaffe auf NC-Steuerung umgestellt.

1955 gibt es jedoch erst eine voll numerisch gesteuerte Maschine am MIT. Firmen hatten bis dahin kein Geld in die neue Technologie investiert, obwohl die Luftwaffe und das MIT diese überzeugen wollten. In weiterer Folge investierte die Luftwaffe über hundert solcher Maschinen, die auf Staatskosten (!) in den Vertragsfirmen (das waren Flugzeughersteller sowie deren Zulieferer) aufgestellt wurden. Auch das Erlernen von Gebrauch und Wartung der neuen Technologien wurde von der Luftwaffe finanziert. Die Luftwaffe etablierte somit einen Markt für die neuen Technologien.

Ab 1955 erkannten die Werkzeugmaschinenhersteller die Bedeutung der neuen Technologien, suchten Anschluss an diese Technologie und sprangen auf den Zug auf. Allerdings spielten die Kosten, im Normalfall ein wichtiges Entwurfskriterium, eine geringe Rolle, da die Finanzierung ohnehin vom Militär übernommen wurde. Daher bestand für Firmen, Investoren und Entwickler kein Grund, billige Maschinen für den Markt zu entwickeln und herzustellen.

Auch bei der Softwareentwicklung wirkte der Einfluss des Militärs. So wurden die Schwierigkeiten der Übertragung des Produktionswissens auf den Lochstreifen völlig falsch eingeschätzt; am MIT gab es kaum Erfahrung mit Bearbeitungsmaschinen; außerdem ging man von der falschen Annahme aus, dass die Fähigkeiten eines einfachen Maschinenarbeiters leicht nachzuahmen wären.

Die Softwareentwicklung wurde sehr schnell zum Schwerpunkt des Projekts. Die Vorbereitung der ersten Programme von Hand war langwierig und zeitraubend. So verwendete man bald den ersten Digitalrechner, „Whirlwind“, zur Programmerstellung. Ab 1956 entwickelte man darüber hinaus APT („Automatic Programmed Tools“).

Die Luftwaffe befürwortete die Entwicklung von APT, da man dadurch

  • eine schnellere Mobilisierung,
  • schnelle Entwurfsänderungen und
  • eine bessere Austauschbarkeit
    • zwischen verschiedenen Mitarbeitern einer Firma,
    • zwischen Benutzern und Verkäufern sowie
    • zwischen Vertragsfirmen und ihren Zulieferern in den ganzen USA

erreichte. Dahinter standen vermutlich stategische Überlegungen im Falle eines feindlichen Angriffs. APT wurde so auf Betreiben des Militärs zur industriellen Norm erklärt.

Seitens der Firmen (Flugzeughersteller) zeigte sich anfangs jedoch heftiger Widerstand gegen APT als Industrienorm. Gründe dafür waren

  • das Vorhandensein eigener Programmiersprachen, welche zwar weniegr flexibel, dafür aber erprobt, einfach und spezifisch für die Firma waren, sowie
  • eine Reihe von Nachteilen von APT; APT
    • war schwerfälliger, weil grundlegender,
    • stellte hohe Anforderungen an die Programmierer, da es sehr komplex war,
    • stellte hohe Anforderungen an die Computer, da ein großes Informationsvolumen verarbeitet werden musste und
    • wies eine höhere Fehleranfälligkeit auf, da eben ein großes Informationsvolumen vorlag.

Die Folgen dieser Entwicklung davon waren

  • die Behinderung der Entwicklung einfacherer Programmiersprachen über einen längeren Zeitraum,
  • die Abhängigkeit von APT in Folge der Normung sowie
  • die Notwendigkeit großer Rechenanlagen und mathematisch hochqualifizierter Programmierer - beides war teuer.

Als Konsequenzen ergaben sich, dass

  • die Flugzeugfirmen Unterstützung von der Luftwaffe erhielten und es sich daher leisten konnten, mit ATP zu arbeiten,
  • kommerzielle Benutzer entweder gezwungen waren, ATP zu verwenden, um militärische Aufträge zu erhalten, oder von Regierungsaufträgen ausgeschlossen wurden, da sie sich das System nicht leisten konnten, und
  • ATP einen hohen Nutzen für die Luftwaffe und für die Flugzeugindustrie mit sich brachte, dies jedoch auf Kosten weniger finanzkräftiger Mitbewerber.

Das Record-Playback-Verfahren zeichnet sich, wie bereits erwähnt, durch folgende Eigenschaften aus:

  1. Ein Arbeiter stellt zunächst ein Werkstück her.
  2. Die Bewegungen der Maschine werden auf Magnetband bzw. Lochstreifen aufgezeichnet.
  3. Die automatische Herstellung identischer Werkstücke erfolgt durch Abspielen des Magnetbandes bzw. des Lochstreifens, die Maschinenbewegungen werden wiederholt.
  4. Dieses Verfahren ist gut geeignet für kleinere Firmen.
  5. Es sind keine Programmierer, Mathematiker, Programmiersprachen oder Computer nötig, was die Kosten im Vergleich zum Numerical Control-Verfahren geringer hält.

Das Record-Playback-Verfahren wurde allerdings nie in großem Stil auf dem Markt angeboten. Noch in den 50er- und 60er-Jahren wurden von GE (General Electrics) Magnetbandsteuerungssysteme mit einer Record-Playback-Funktion angeboten, wobei auf diese Funktion jedoch nicht explizit hingewiesen wurde.

NC-Technologie setzt sich durch[Bearbeiten | Quelltext bearbeiten]

Warum setzte sich das Record-Playback-Verfahren nicht durch, obwohl es einige nicht von der Hand zu weisende Vorteile aufwies, vor allem für kleinere Firmen?

Hier lässt sich eine Reihe von Gründen finden, und zwar

  1. die Leistungsanforderungen der Luftwaffe (Fertigung komplizierter Teile in 4- oder 5-Achsen-Bearbeitung),
  2. die erwartete Kostensenkung der einzelnen Teile,
  3. die erwartete Senkung der Lohnkosten für Werkzeugmacher, Schablonenhersteller und Maschinenbediener,
  4. die Unterstützung durch die Luftwaffe,
  5. vor allem am MIT die symbolische Bedeutung (die NC-Technologie war Symbol für das Computerzeitalter sowie für den Forschritt, die Record-Playback-Technik hingegen war Symbol für Traditionalität),
  6. vor allem in großen Firmen die Möglichkeit der Kontrolle des Managements über die Produktion sowie
  7. die Angst des Militärs vor Spionage und Sabotage.

Das Management erwartete, dass mit Hilfe des Numerical-Control-Verfahrens die Kontrolle über den Produktionsvorgang erlangt wird. So sollte die Kontrolle der Maschinen - und damit über den Produktionsvorgang - nicht mehr durch die Arbeiter erfolgen, sondern durch Programme, welche im technischen Büro erstellt werden, was nicht Teil der Werkhalle, sondern Teil des Angestellten-Bereichs und somit Teil des unmittelbaren Einflussbereichs des Managements war.

Es wurde beispielsweise hervorgehoben, dass

  • „... mit modernen automatischen Steuerungen das Tempo der Produktion von der Maschine bestimmt wird und nicht vom Arbeiter“ (Stickwell, Präsident der Landis Machine Company, 1960), und dass
  • „... die Arbeiter nicht länger damit belastet werden, kritische Produktionsentscheidungen zu fällen“ (Anzeige der Firma MOOG - Machine Company of Buffalo, 1975).

Außerdem erwartete das Management eine Kostensenkung durch die Möglichkeit der Beschäftigung weniger qualifizierter Arbeiter.

Doch so simpel funktionierte es dann doch nicht!

Noble zitiert dazu einen Beratungsingenieur von GE: „... bei Record-Playback verbleibt die Kontrolle der Maschine beim Maschinenarbeiter, die Kontrolle über Vorschübe, Geschwindigkeiten, Spantiefe und Leistung; bei der numerischen Steuerung wird diese Kontrolle ins Management verlagert. Das Managament ist nicht länger abhängig vom Bediener und kann deshalb die Nutzung seiner Maschinen optimieren. Mit der numerischen Steuerung wird die Kontrolle über den Prozess fest in die Hand des Managements gelegt, und warum sollten wir sie nicht dort haben?“

Aus dieser Sichtweise geht klar hervor, dass die numerische Steuerung viel mehr als Management-System gesehen wurde und nicht als Technologie der Metallverarbeitung, wie es von GE bislang so beschrieben worden war.

Das NC-Verfahren bedeutet jedoch nicht automatisch, dass die Programmierer im Büro programmieren und die Arbeiter in der Werkstatt zu „Knöpfedrückern“ reduziert werden. Das NC-Verfahren hätte auch anders eingesetzt werden können: So hätte man die Facharbeiter zu NC-Programmierern ausbilden oder Arbeitsgruppen bestehend aus Facharbeitern und Programmierern, die gemeinsam die Programme erstellen und optimieren, bilden können.

Die NC-Technologie bietet also mehrere Möglichkeiten des Einsatzes (mehrere Potentialitäten). Das Management bemächtigt sich dieser Potentialitäten, „um bestimmte soziale und technische Zielsetzungen zu erreichen“ (beispielsweise die Kontrolle über die Werkstatt).

Realität der NC-Maschinen[Bearbeiten | Quelltext bearbeiten]

Technik wird in einer (organisations- bzw. kultur-)spezifischen Weise eingesetzt und entfaltet in weiterer Folge ihre Konsequenzen (später: strukturierende Funktion). Die Konsequenzen des Technikeinsatzes sind daher abhängig von der kulturellen Bedeutung dieser Technik und der Art und Weise ihres Einsatzes.

Die Arbeitswelt unterscheidet sich mehr oder weniger stark vom außerbetrieblichen Alltag. In der Arbeitswelt ist es für die beteiligten Arbeitnehmer viel schwerer, divergierende bzw. abweichende Bedeutungen der Technik, die in der Firma verwendet wird, durchzusetzen. Das liegt daran, dass es eine „hegemoniale“ Bedeutung der Technik gibt (Unter Hegemonie versteht man die Vorherrschaft einer Institution, einer Organisation etc.). Diese Bedeutung entspricht jener, die von der Firmenleitung, dem Unternehmer bzw. dem Management vertreten wird. Diese hegemoniale Bedeutung wird im betrieblichen Kontext zumeist über negative Sanktionsmaßnahmen abgesichert (im Extremfall kann dies bis zum Entzug der Subsistenzgrundlage, also zur Entlassung, führen). Trotzdem gibt es immer wieder Versuche abweichender („eigensinniger“) Bedeutungszuschreibungen durch die Arbeitnehmer (siehe weiter unten).

Entgegen der Vorstellungen des Managements waren bei der Bedienung der NC-Maschinen Eingriffe der Facharbeiter nach wie vor möglich. Es kam außerdem zu einem Kampf um Vorgabezeiten (Vorschübe und Schnittgeschwindigkeiten); viele Arbeiter entschlossen sich zum „Bummeln“ (70-Prozent-Syndrom), was das Management zu entsprechenden Gegenreaktionen veranlasste; dabei handelte es sich meistens entweder um die Programmierung der Maschinen auf 130 % des normalen Vorschubs oder Blockierung der Steuerungsschalter, mit Hilfe derer die Vorschubgeschwindigkeit durch den Arbeiter geregelt werden konnte (letztere Maßnahme führte zu häufigeren Problemen sowie Produktionsausfällen).

Welche Bedeutung der NC-Technologie setzte sich also durch?

Die Arbeiter forderten zunehmend, um der Dequalifizierungsgefahr zu begegnen, nicht nur „Bediener“ der Maschine zu sein, sondern verstärkt für Wartung und Programmierung der Maschinen zuständig zu sein; Ziel war die Vergrößerung des Handlungs- und Entscheidungsspielraums.

CNC-Maschinen[Bearbeiten | Quelltext bearbeiten]

Aus diesen Bestrebungen heraus wurden die NC-Maschinen zu CNC-Maschinen weiterentwickelt (CNC steht für Computer Numerical Control); eine CNC-Maschine enthält zusätzlich zu den Elementen einer NC-Maschine einen Computer zur Steuerung. An dieser Weiterentwicklung werden die unterschiedlichen Realisierungsmöglichkeiten betrieblicher Anwendung besonders deutlich.

CNC-Maschinen haben eine Reihe von Unterschieden zu „herkömmlichen“ NC-Maschinen:

  • Die Speicherung erfolgt direkt in der Maschine.
  • Das Aufrufen unterschiedlicher Programme gestaltet sich daher einfach.
  • Die Steuerungsinformation kann auf dem Bildschirm dargestellt und verändert werden.
  • Die Reihenfolge der Bearbeitungsschritte kann modifiziert werden.
  • Die Erstellung von Programmen muss nicht im Büro, sondern kann auch direkt in der Werkstatt erfolgen (gleichsam „digitales Record-Playback“).
  • Die Einzelfertigung wird erleichtert, es entsteht kein Verwaltungsaufwand mehr für die Programmerstellung.
  • Die Rückkehr der Kontrolle über die Produktion in die Werkstatt ist möglich (erfolgt allerdings nicht notwendigerweise).

Beim Einsatz von NC- und CNC-Maschinen gab es zahlreiche unterschiedliche Realisierungen, hier zwei Beispiele:

  1. GE in Massachussetts: Die Maschinenbediener dürfen die Programme nicht ausgeben oder erstellen; zum Teil sind die Programmiertasten blockiert. Probleme treten hier in Form von niedriger Produktionsqualität und hohen Stillstandszeiten auf.
  2. Staatliche Waffenfabrik in Kongsberg, Norwegen: Die Maschinenbediener verändern Programme und speichern die „neuen“ Programme zur weiteren Verwendung; zum Teil sind alle Maschinenbediener in der NC-Programmierung ausgebildet.

Man unterscheidet daher zwei unterschiedliche Organisationen der Erstellung von Programmen: Zum einen kann die Programmierung in der Arbeitsvorbereitung bzw. im technischen Büro erfolgen, zum anderen ist aber auch die Erstellung der Programme direkt an der Maschine möglich (sogenannte „Werkstatt-Programmierung“).

Symbolische Bedeutung[Bearbeiten | Quelltext bearbeiten]

Die symbolische Bedeutung einer Technik ist jene, die nicht im Zusammenhang mit dem eigentlichen Zweck einer Technik steht; so kaufen sich Stadtbewohner nicht einen Geländewagen, um sich damit in unwegsamem Gelände fortbewegen zu können, sondern, weil ein Geländewagen ein gesellschaftliches Symbol darstellt. Genauso kaufen sich Jugendliche ein Moped zwar zur Fortbewegung, doch dient es häufig auch als Instrument der Provokation der Erwachsenen (wenn es dazu verwendet wird, um Lärm zu erzeugen) oder als Statussymbol, was sogar so weit gehen kann, dass die eigentliche Bedeutung vollständig nebensächlich wird.

Die symbolische Bedeutung lässt sich auch gut am Beispiel der NC-Maschinen zeigen.

  • So steht die NC-Technologie für das MIT für das Computerzeitalter sowie für den Fortschritt - das Record-Playback-Verfahren hingegen steht für Traditionalität. Dies war, wie bereits erwähnt, ein wesentlicher Grund, warum am MIT die NC-Technologie und nicht das Record-Playback-Verfahren vorangetrieben wurde.
  • Für das Militär bedeutet die NC-Technologie Kontrolle über die Werkhalle sowie Abwehr von Sabotage und Spionage.
  • Für das Management ist die NC-Technologie ein neues Managementsystem sowie ein Kontrollinstrument über Arbeiter und Werkhalle.
  • Für die Arbeiter ist die NC-Technologie Instrument einerseits zur Kompetenzerweiterung und andererseits zur Vergrößerung des Handlungs- und Entscheidungsspielraums.

Stellt sich also die Frage: Welche dieser Bedeutungen setzt sich schließlich durch?

Die Antwort auf diese Frage ist abhängig von Aspekten der innerbetrieblichen Macht- und Herrschaftsverhältnisse: Wer die Macht hat, kann seine „Bedeutungen“ durchsetzen. Es gibt ungleiche Chancen der Durchsetzung von „Bedeutungen“ einer Technik im Betrieb (in der Arbeitswelt). Man kann daher unterscheiden zwischen „hegemonialer“ Bedeutung und „eigensinnigen“ Bedeutungszuschreibungen.

So gibt es beim Einsatz von NC- bzw. CNC-Maschinen zwei mögliche Folgen, und das sind

  • die Reduktion der Facharbeiter auf „Knöpfchendrücker“ oder
  • die Erweiterung der Kompetenzen der Facharbeiter und damit die Erweiterung deren Handlungs- und Entscheidungsspielraums.

Welche dieser Konsequenzen eintritt, ist, wie bereits erwähnt, abhängig von der kulturellen (also symbolischen) Bedeutung dieser Technik und von der Art und Weise ihres Einsatzes, der in engem Zusammenhang mit der symbolischen Bedeutung steht). Dies lässt sich in folgender Tabelle zusammenfassen:

Symbolische Bedeutung Art des Einsatzes „Konsequenzen“
Kontrollinstrument über Arbeiter und Werkhalle Programmerstellung im technischen Büro Reduktion der Facharbeiter zu „Knöpfchendrückern“, neue Belastungen
Instrument zur Kompetenzerweiterung „Werkstattprogrammierung“ Erweiterung des Handlungs- und Entscheidungsspielraums der Facharbeiter, Verbesserung der Arbeitssituation

Verantwortung des Informatikers[Bearbeiten | Quelltext bearbeiten]

Am 14. September 1993 ereignete sich bei der Landung eines Airbus A-320 in Warschau ein tödlicher Unfall. Wegen des herrschenden Seitenwindes setzte die Maschine mit leichter Schräglage auf, sieben Sekunden lang wurde das linke Fahrwerk nicht ausreichend belastet, sodass entsprechende Sensoren dies registriert hätten. Der Bordcomputer ließ daher die Einleitung von Bremsmanövern während dieser Zeit nicht zu, sodass die Landebahn für das Abbremsen der Maschine nicht mehr ausreichte. Das Flugzeug prallte gegen einen Erdwall hinter dem Ende der Landebahn, zwei Personen, der Kopilot und ein Passagier, starben.

Airbus vertritt die Firmenphilosophie, dass das Cockpit so weit wie möglich automatisiert werden sollte, da die einzige Fehlerquelle der Mensch darstelle, keinesfalls jedoch die Maschine. Doch in diesem Fall stellt sich die Frage, ob dieses Ziel tatsächlich so anstrebenswert ist, wie von Airbus vertreten.

Fragen[Bearbeiten | Quelltext bearbeiten]

Der Flugzeugabsturz in Warschau thematisiert eine Reihe von Fragen, und zwar

  • ... nach dem Risiko informationstechnischer Systeme und Automationssysteme (siehe auch Kapitel #Gefahr und Risiko):
    • Wie sieht es mit den Sicherheitsversprechen (informations)technischer Systeme aus?
    • Sind die Risiken durch forcierte Automatisierung (d.h. technische Perfektionierung) beseitigbar?
  • ... nach der grundsätzlichen Art hinsichtlich der Grenzen von Automatisierung:
    • Wie weit kann, soll bzw. darf Automatisierung gehen?
    • Ist es richtig, den Menschen nur als „Störfaktor“ anzusehen und ihm daher alle Eingriffsmöglichkeiten zu nehmen?
    • Wenn ja, wer verantwortet dann die Ergebnisse und Folgen automatisierter Prozesse?

Czaja hat dies 1987 wie folgt formuliert: "The difference lies in whether the people are regareded as extension of the machine or the machine is designed as an extension of the people."

  • ... nach der gesellschaftlichen und individuellen Verantwortung von ICT-Entwicklern und Informatikern: Hier sind Fragen der Ethik zu nennen, beispielsweise:
    • Darf der „Computer“ den Menschen daran hindern, gegen die Vorschläge oder Empfehlungen des Computers handeln?
    • Wer übernimmt die Verantwortung für die Folgen von „Computerentscheidungen“?
    • Können dem Computer überhaupt Entscheidungen zugerechnet werden?
    • Müssen Entwickler grundsätzliche Überlegungen (etwa zu den Grenzen der Automatisierung) in ihre Überlegungen einbeziehen?
    • Was heißt das für den einzelnen Informatiker, der verantwortlich an einem solchen Projekt mitarbeitet, etwa im Falle grundsätzlicher Zweifel an der Sinnhaftigkeit und Machbarkeit des Vorhabens?

Wieder einmal sind an dieser Stelle die vom Verein Deutscher Ingenieure (VDI) im März 2002 herausgegebenen ethischen Grundsätze des Ingenierberufs zu erwähnen (siehe Kapitel #Wissenschaft ist kritisch). Auch die #Ethikrichtlinien der Schweizer Informatik Gesellschaft sind in diesem Zusammenhang interessant.

Moral, Ethik, Verantwortung[Bearbeiten | Quelltext bearbeiten]

Nach Ott/Busse (1989) ist Moral ein „Komplex von Überzeugungen, der es erlaubt, Handlungsweisen als gut oder böse, geboten, verboten, oder erlaubt zu klassifizieren“. Bezugspunkte sind dabei für alle Mitglieder einer Kultur bzw. Gesellschaft gleichermaßen verbindliche Normen. Klar davon abzugrenzen sind Benimmstandards und Konventionen sowie persönliche Vorlieben und individuelle Lebensgestaltung („Was will ich aus meinem Leben machen?“).

Ethik ist weiters die Theorie der Moral. Die ethische Theorie soll helfen, moralische Prinzipien zu begründen.

Verantwortung ist eine „Rechenschaftspflicht“ für eigene Verhaltensweisen (und deren Folgen) im Sinne zurechenbarer Handlungen angesichts geltender Normen und Wertvorstellungen. Man kann dabei (Lenk, 1992) zwischen

  • Handlungsverantwortung (bzw. Handlungsergebnisverantwortung),
  • Aufgaben- und Rollenverantwortung,
  • Moralischer Verantwortung (bzw. Universalmoralischer Verantwortung) sowie
  • Rechtlicher Verantwortung

unterscheiden.

Zur Auflösung normativer Konkurrenzverhältnisse bei ethischen Fragen und Konflikten muss man sich Vorrangregeln überlegen:

  • Moralische Rechte haben immer Vorrang vor Nutzenüberlegungen; jeder Einzelne hat gleichermaßen Grundrechte, die er unter keinen Umständen aufgeben kann.
  • Im Falle eines unlösbaren Konflikts zwischen gleichwertigen Grundrechten ist nach einem fairen Kompromiss zu suchen, der alle Beteiligten angemessen berücksichtigt (d.h. gerechte und angemessene Verteilung der Lasten bzw. des Nutzens).
  • Erst nach Berücksichtigung der moralischen Rechte ist auf den geringsten möglichen Schaden zu achten.
  • Und erst als Letztes sind Nutzen und Schaden gegeneinander abzuwiegen.
  • Allgemeine moralische Verantwortung hat immer Vorrang vor nicht-moralischer Verantwortung.
  • Universalmoralische Verantwortung hat Vorrang vor Aufgaben- und Rollenverantwortung.
  • Das Gemeinwohl steht über nicht-moralisch begründeten Interessen.
  • Sicherheitstechnische Erfordernisse haben Vorrang gegenüber wirtschaftlichen Überlegungen.

„Invisible Factor“[Bearbeiten | Quelltext bearbeiten]

Da der Computer grundsätzlich eine „Black Box“ darstellt, ist es schwierig, die Operationen des Computers im Detail nachzuvollziehen. Nach Moor (1985) bzw. Ott/Busse (1999) gibt es daher einen sogenannten „Invisible Factor“, der sich auf drei Ebenen aufteilt:

  • Invisible Abuse: Missbrauch bleibt unentdeckt, und zwar auf Grund der spezifischen Struktur und Gestaltung von Computersystemen (beispielsweise Eindringen in fremde Datenbestände im Rahmen des Datenschutzes oder Überwachung generell).
  • Invisible Programming Values (system bias): Bereits in die Planung und Gestaltung von ICT-Systemen fließen nicht offen gelegte Annahmen, Präferenzen, Prioritäten und Wertentscheidungen ein, die unsichtbar, unbemerkt und unthematisiert sind. Es geht dabei um die Frage, was wichtig oder unwichtig ist, was vorrangig oder nachrangig und was leicht oder schwer ist. Das Programm begünstigt oder benachteiligt dadurch bestimmte Personengruppen oder deren Interessen (user bias, siehe die Realisierung von NC- und CNC-Maschinen) bzw. bestimmte Zugangs- und Umgangsweisen mit Daten (information bias, siehe das Airbus-Unglück oder Expertensysteme).
  • Invisible Miscalculation: Ergebnisse von Computerberechnungen können auf Grund ihrer Komplexität nicht mehr nachvollzogen werden. Was bedeutet das allerdings für das Vertrauen in Computersysteme bzw. in diejenigen, welche die Computersysteme geschaffen haben?

Es besteht daher eine besondere Sorgfaltspflicht für Programmierer und Systemgestalter. Es soll sich dabei um eine Vorgehensweise handeln, welche die Konsequenzen antizipiert. Ein Explizit-Machen von und Transparenz-Herstellen hinsichtlich

  • der in das ICT-System eingegangenen Vorannahmen, Vorentscheidungen, Prioritätsentscheidungen etc.,
  • der grundsätzlichen Vorgangsweisen und Prinzipien, wie das ICT-System operiert bzw. Entscheidungen getroffen werden sowie
  • versteckter Information

sind notwendig. Dies kann beispielsweise durch Lokalisierung, Visualisierung oder Rückmeldung für den Kunden erfolgen (siehe Airbus-Unglück).

Modellierung[Bearbeiten | Quelltext bearbeiten]

Modellierung findet in der Informatik im gesamten Entwicklungsprozess von Computerartefakten statt, insbesondere in der Softwareentwicklung (von Problemanalyse bis Programmierung). Bei der informatischen Modellierung handelt es sich um die Modellierung operationaler Modelle, welche die Ausführung von Computerprogrammen steuern.

Modelle[Bearbeiten | Quelltext bearbeiten]

Als Modell bezeichnet man eine vereinfachte Darstellung der Realität bzw. von Teilbereichen der Realität im Sinne einer begründeten Abstraktion, um die Realität besser verstehen und handhaben zu können.

Modelle sind in allen Wissenschaften zu finden, sei es in der Physik (beispielsweise das Bohr'sche Atommodell), in der Psychologie oder in der Informatik.

Nach Kosing ist ein Modell eine Abbildung von Objekten, Eigenschaften oder Relationen eines bestimmten Bereichs der objektiven Realität oder einer Wissenschaft auf einfachere, übersichtlichere Strukturen desselben oder eines anderen Bereichs.

Modelle haben drei wesentliche Eigenschaften:

  • Modelle bilden etwas ab.
  • Modelle verkürzen - und vereinfachen somit.
  • Modelle sind ihren Originalen nicht per se eindeutig zugeordnet, sondern haben ihre Bedeutung für bestimmte Subjekte (handelnde Menschen), beziehen sich auf konkrete historische Zeitpunkte oder Zeiträume und beschränken sich auf bestimmte gedankliche oder tatsächliche Operationen („pragmatische Orientierung“).

Modelle von etwas (vom Original bzw. von Teilbereichen der Realität) für jemanden (Subjekt, interpretationsabhängig) erfüllen ihren Zweck eine gewisse Zeit lang, dienen einem bestimmten Zweck und verkürzen bzw. reduzieren.

Programmtypen[Bearbeiten | Quelltext bearbeiten]

Lehman unterscheidet grundsätzlich zwischen drei verschiedenen Typen von Programmen:

  • S-Programme (von specification): Diese Programme behandeln wohldefinierte Probleme aus dem Diskursbereich, für die es formale Definitionen gibt (zum Beispiel die Bestimmung des ggT zweier ganzer Zahlen).
  • P-Programme (von problem): Diese Programme behandeln Probleme der realen Welt, für die eine formale Spezifikation in Abhängigkeit von der Problemsicht gibt (zum Beispiel Schachprogramme).
  • E-Programme (von embedded): Diese Programme behandeln Probleme der realen Welt, kommen auch in der realen Welt zum Einsatz (sind in diese „eingebettet“) und haben eine Wechselwirkung mit dem Kontext.

Bei S-Programmen gestaltet sich die Modellierung relativ unproblematisch, da bereits eine formale Spezifikation vorliegt. In der Praxis kommen allerdings vor allem P- und E-Programme vor. Hier stellt sich jedoch die Frage, wie die Modellierung mit dem Kontext umgeht.

Modellierung gliedert sich grundsätzlich in Konstruktion und Rekonstruktion. Für die Überführung in effektive Computerberechnungen muss das Problem symbolisch, vom Kontext abgelöst („dekontextualisiert“) und interpretationsfrei beschrieben werden.

Das Modell ist jedoch nicht gleich der Wirklichkeit. Ein Modell reduziert grundsätzlich; darüber hinaus gibt es keine Garantie für Angemessenheit bzw. Übereinstimmung von Entwicklungsintention und Nutzungskontext.

Nach Floyd und Klaeren legt das Modell fest, wie der Computer in der Wirklichkeit „agiert“, das bedeutet, es erfolgt eine Beschränkung des Austausches mit der Umwelt auf diejenigen Aspekte, die

  • im Modell berücksichtigt wurden,
  • als Daten vereinbart sind und
  • über Signale erkannt werden können.

Die Umwelt, mit welcher der Computer in Austausch tritt, ist immer artifiziell, auch wenn es sich um einen natürlichen bzw. sozialen Kontext handelt.

Im Weiteren besteht immer eine Kluft zwischen Modellierungssituation und Einsatzsituation:

  • Zwischen der Erstellung des Modells und der Fertigstellung entsprechender Software verstreicht Zeit,
  • es verändert sich der Gegenstandsbereich,
  • es entstehen neue Bedingungen,
  • unvorhergesehene Überraschungen treten auf etc.

Probleme bei der Modellierung der Wirklichkeit werden am Beispiel von NORAD (nordamerikanisches Raketenabwehrsystem), am Beispiel des vollautomatisierten Airbus-Cockpits oder am Beispiel des Abschusses eines iranischen Passagierflugzeugs durch die USA im Jahre 1988 deutlich. In allen diesen Fällen wurde nicht beachtet, dass die Wirklichkeit nicht 1:1 in ein Modell abgebildet werden kann.

Information und Daten[Bearbeiten | Quelltext bearbeiten]

Unter Daten versteht man formatierte, maschinenlesbare Zeichen.

Information ist allerdings eine Sammlung interpretierter Daten. Diese Daten haben daher eine gemäß ihrer Interpretation eine Bedeutung für den handelnden Menschen. Es gibt allerdings nie bloß eine Möglichkeit der Interpretation von Daten, die Interpretation ist kein eindeutiger, automatischer Prozess.

Nach Kubicek „gewinnt die Information ihre Bedeutung erst durch die zweckgebundene Interpretation eines Menschen“ und ist damit zweckgebunden und kontextabhängig, da die Interpretation in der Regel in spezifischen Situationen unter konkreten Intentionen erfolgt und nur unter Bezugnahme auf den jeweiligen Kontext möglich ist.

Dies führt zum Problem der Dateneingabe bzw. der Datenausgabe (beispielsweise Datenbanken, Expertensysteme etc.) und zur Unterscheidungsmöglichkeit zwischen „Datenverarbeitungstechnik“ und „Informationstechnik“.

Beispielsweise haben die Ergebnisse der Fußball-Europameisterschaft für einen Fußballfan (mitunter) bedeutsamen Charakter, während dieselben Informationen für einen nicht an Fußball Interessierten bedeutungsloses Rauschen sind.

Produktions- und Designsicht[Bearbeiten | Quelltext bearbeiten]

Bei der Entwicklung von ICT-Systemen bzw. in der Softwareentwicklung gibt es zwei verschiedene Perspektiven, welche im Folgenden beschrieben werden sollen.

Produktionssicht[Bearbeiten | Quelltext bearbeiten]

Nach Floyd ist die Realisierung von ICT-Systemen bzw. die Softwareentwicklung eine Tätigkeit, die auf vorgegebenen Problemen mit fest definierter Anwendung beruht.

Diese Sichtweise bringt jedoch eine Reihe von Problemen mit sich:

  • Es erfolgt eine Fokussierung auf die technisch-logische Komponente.
  • Der Kontextbezug wird außer Acht gelassen.
  • Die menschliche Praxis wird verzerrt.
  • Diese Sichtweise wird der Einbettung von ICT-Systemen bzw. Software in soziale Kontexte (beispielsweise menschliches Handeln) nicht gerecht.

Designsicht[Bearbeiten | Quelltext bearbeiten]

In der Designsicht hingegen ist die Gestaltung ein wechselseitiger konstruktiver und kommunikativer Prozess unter Bezugnahme auf veränderliche Nutzungs- und Einsatzkontexte. Gestaltungsspielräume von ICT-Entwicklern und Programmierern werden realisiert, ob es den Entwicklern bewusst ist oder nicht.

ICT-Entwickler und Programmierer sind sozusagen „agents of change“. Sie greifen gestaltend in komplexe soziale Geschehen und Verhältnisse im Spannungsfeld unterschiedlicher Interessen (zum Beispiel Firmen, Organisationen oder Arbeitssituationen) ein. Der soziale Kontext in der Nutzungssituation wird beachtet, Überlegungen zu den Konsequenzen der eigenen Produkte werden bereits in den Gestaltungsprozess mit einbezogen (integrierte Technikbewertung und partizipatives Design).

Als Einwand könnte man allerdings die Frage bringen, ob die Informatiker das alles wirklich berücksichtigen müssten. Schließlich hat der Informatiker in einem Projekt ohnehin schon genug zu tun mit der Spezifikation, der logischen Berechnung usw., worauf er sich konzentrieren muss. Eine einfache Antwort auf diese Frage ist jedoch: Ja, der Informatiker muss das alles berücksichtigen.

Die ethische Dimension ist in der Designsicht immanent, wird in der Produktionssicht hingegen als etwas Äußerliches betrachtet.

Wissenschaftsverständnis der Informatik[Bearbeiten | Quelltext bearbeiten]

Man kann in der Informatik eine Reihe von Teildisziplinen unterscheiden:

  • Computer Engineering sieht den Computer als technisches Substrat; die Informatik wird als Ingenieurswissenschaft angesehen.
  • Computing Science beschäftigt sich mit der Berechenbarkeit und der formalen Theorie der Programmierung, ist mehr oder weniger Wissenschaft von den Algorithmen.
  • Als Systemwissenschaft sieht die Informatik Computerartefakte als technische Systeme.
  • Als Kognitionswissenschaft nimmt die Informatik Bezug auf das menschliche Denken, den Computer als Metapher für den Geist sowie die technische Nachbildung intelligenter Leistungen.
  • Als Gestaltungswissenschaft nimmt die Informatik Bezug auf den technischen Entwurf, die Gebrauchsorientierung sowie die ästhetische Dimension.
  • Als Medienwissenschaft nimmt die Informatik Bezug auf technisierte bzw. computergestützte Formen der Kommunikation.

Zuweilen besteht allerdings jenes Missverständnis, das Informatik formalwissenschaftlich als Teildisziplin der Mathematik ausschließlich auf die Erarbeitung formaler Spezifikationen sowie deren Überführung in korrekte Programme reduziert.

Die Erarbeitung streng formaler Modelle sowie die Führung von Korrektheitsbeweisen ist sind der Tat sehr wichtig, dabei werden jedoch die technische Dimension von Computerartefakten sowie der Einsatz in sozialen Kontexten nicht berücksichtigt.

Bei den #Programmtypen sind S-Programme die einfachsten, bei denen auch vollständige Korrektheit erreicht werden kann, da eine formale Spezifikation vorliegt. In der Praxis sind jedoch P- und E-Programme weit häufiger vertreten als S-Programme. Bei diesen Programmtypen ist zusätzlich Testen im Kontext erforderlich („In-Situ-Testen“: vielfältiger, wiederholter situierter Gebrauch im Einsatzkontext). Dadurch kann man die Korrektheit zwar nicht beweisen, man kann aber weitgehende Zuverlässigkeit gewährleisten.

Daher ist eine empirische Vorgehensweise in der Informatik zusätzlich zu einer formalen Methodik notwendig.

Informatik als Gestaltungswissenschaft[Bearbeiten | Quelltext bearbeiten]

Im Englischen bedeutet „Design“ sowohl den (technischen) Entwurf als unabdingbares Element jeder ingenieurwissenschaftlichen Vorgangsweise als auch die sozio-technische Gestaltung sowie die künstlerische Gestaltung. „Gestaltung“ im Deutschen bezieht sich jedoch vorwiegend auf den künstlerisch-ästhetischen Aspekt.

Bei „Design“ und „Gestaltung“ sollen technischer Entwurf und die Gestaltung sozio-technischer Konfigurationen zusammenwirken. Dabei wird Bezug genommen auf den technischen Entwurf, die Gebrauchsorientierung sowie die symbolische Bedeutung und Ästhetik. Nicht gemeint ist damit die Herstellung gestylter Oberflächen.

In der Gestaltung sind die Probleme nicht gegeben, das bedeutet, es gibt nicht „die“ eine korrekte Lösung wie in der formalen Sicht der Programmierung. Probleme werden vielmehr durch informatisches Handeln in einer bestimmten Weise erschlossen. Von mehreren möglichen Lösungen wird eine ausgewählt.

Aus „problem solving“ wird somit „problem setting“: Bei S-Programmen handelt es sich um formale Probleme, bei denen die Problemlösung im Vordergrund steht. Bei P-Programmen geht bereits die jeweilige Programmsicht für ein Problem in der realen Welt in das Programm ein. E-Programme schließlich sind nur vor dem Hintergrund ihres sozialen Gebrauchs- und Einsatzkontextes verständlich.

Der Scandinavian Approach

  • führt keine Beschränkung auf formale Methoden durch,
  • verwendet auf die Interpretation ausgerichtete Methoden,
  • beachtet die evolutionäre, kooperative und partizipative Praxis der Software- und Systementwicklung und
  • bietet die Möglichkeit der Mitarbeit an der Schaffung gesellschaftlicher Rahmenbedingungen.

Gestaltung kann das Herstellen und das (kontextbezogene) Verstehen sein, aber auch das Passen der Form zum Kontext, also die Formgebung durch den Designer sowie die kontinuierliche Bewertung der Designentscheidungen. Die Informatik weist damit bedeutende Ähnlichkeiten mit der Architektur auf.

Sieht man Modellierung als soziale Realitätsrekonstruktion, so ist zu beachten, dass das Datenmodell keinesfalls eine 1:1-Abbildung der Realität, sondern eine vereinfachte Darstellung der Realität bzw. von Teilbereichen der Realität im Sinne einer (begründeten) Abstraktion darstellt. Es handelt sich also um eine Sinnrekonstruktion, die auf Interpretation und Verständnis fußt.

Datenmodelle

  • tragen zur Aufrechterhaltung einer sozial konstruktiven Realität (oder deren Veränderung) bei,
  • sind handlungsanleitend und
  • kanalisieren die Wahrnehmung sozialer Realität.

Datenmodelle sind abhängig von Vorurteilen, welche auf dem Vorverständnis, mit dem die Modelle entwickelt wurden, basiert. Das macht es notwendig, die Datenmodelle in dialogischer Reflexion transparent zu machen und offen zu legen.

Datenmodellierung (re-)definiert den institutionellen Bezugsrahmen für Handlungsorientierung und Entscheidungsfindung. Die Interessen der beteiligten Akteure sind immer betroffen („politische Aktivität“).

Daher ist partizipative Systemgestaltung notwendig sowie „social inquiry“ (Erkundung des Kontexts als empirisch-soziale Herangehensweise).

Ethikrichtlinien der Schweizer Informatik Gesellschaft[Bearbeiten | Quelltext bearbeiten]

Version 0.9, ergänzt mit erläuternden Texten

(Vom Vorstand der Schweizer Informatik Gesellschaft am 15.9.2004 zur Publikation und Vernehmlassung freigegebene Diskussionsfassung)

Präambel[Bearbeiten | Quelltext bearbeiten]

Die Ethikrichtlinien der Schweizer Informatik Gesellschaft reihen sich in eine seit langem bestehende Tradition ethisch begründeter beruflicher Standesregeln ein und sind dieser Tradition verpflichtet.

In der Informatik wurden seit über dreissig Jahren in zahlreichen Ländern Ethikrichtlinien diskutiert und verfasst. Es hat sich dabei gezeigt, dass es aufgrund kultureller und situativer Unterschiede keinen global einheitlichen „Code of Ethics“ geben kann. Die Ethikrichtlinien der Schweizer Informatik Gesellschaft (SI) beruhen in den Kernaussagen auf dem Code of Ethics and Professional Conduct der ACM (Association for Computing Machinery) aus dem Jahre 1992 und wurden aus Schweizer Sicht ergänzt. Sie definieren die ethischen Verpflichtungen jedes Mitgliedes der SI in der Form von 26 persönlichen Bekenntnissen. Besondere Beachtung wurde dabei den folgenden Themen gewidmet:

  • Konkurrenz und fairer Wettbewerb
  • Vertrauen zwischen Auftraggeber und Auftragnehmer
  • Ökologische und soziale Nachhaltigkeit der Informatik
  • Vermeidung unnötiger und unkontrollierbarer Komplexität.

Das Ziel dieser Ethikrichtlinien ist es nicht, eine neue und bessere Weltordnung zu formulieren, sondern jedem einzelnen in einem Informatikberuf tätigen Menschen Massstäbe für persönlich verantwortliches Handeln zu vermitteln.

Die Ethikrichtlinien treten per 1.1.2006 in Kraft und sind für jedes Mitglied der SI verbindlich.

1. Allgemeine Grundsätze[Bearbeiten | Quelltext bearbeiten]

Als Mitglied der Schweizer Informatik Gesellschaft werde ich

  1. zum Allgemeinwohl beitragen;
  2. die Persönlichkeit und die Rechte Dritter achten;
  3. ehrlich und vertrauenswürdig handeln;
  4. materielle und immaterielle Eigentumsrechte achten;

2. Professionelle Verantwortung[Bearbeiten | Quelltext bearbeiten]

Als Mitglied der Schweizer Informatik Gesellschaft werde ich in Ausübung meines Berufes

  1. nur Tätigkeiten ausführen, welche ich ethisch und fachlich verantworten kann;
  2. Qualität und Effektivität nach dem Stand der Kunst gewährleisten;
  3. Fachkompetenz erwerben und durch stetiges Lernen erweitern;
  4. bei der Vermittlung von Fachwissen auch das Thema der gesellschaftlichen Verantwortung einbeziehen;
  5. unangemessenen Erwartungen an ICT-Systeme entgegentreten;
  6. geltende Regelungen beachten und anwenden;
  7. ICT-Systeme nur im Rahmen meiner Rechte nutzen;
  8. mich in der Zusammenarbeit mit anderen an Verträge und Absprachen halten;
  9. die Überprüfung meiner Arbeit durch andere ermöglichen und selber bei der Überprüfung der Arbeit anderer mitwirken;
  10. die Auswirkungen von ICT-Systemen mit ihren Mängeln und Risiken analysieren, bewerten und geeignet kommunizieren;
  11. unnötige und unkontrollierbare Komplexität vermeiden;
    Die Informatik basiert auf materiellen und immateriellen Komponenten (Hard- und Software). Bereits die materielle Mikroelektronik verleitet dank ihrer exponentiellen Weiterentwicklung (Moore'sches Gesetz) bei gleichzeitiger Verbilligung zu ständigen Ausweitungen der Anwendungen. Faktisch unbegrenzt sind aber vor allem die immateriellen Erweiterungen (Programme, Daten). Forschung und experimentelle Entwicklungen erobern daher laufend neue Anwendungsbereiche und erweitern die Funktionalität von ICT-Systemen ständig.
    Realer ICT-Einsatz verlangt jedoch in technischen und in administrativen Anwendungen die Beachtung angemessener Qualitätsanforderungen (Zuverlässigkeit, Stabilität, Wartbarkeit usw.) bei gleichzeitiger Wirtschaftlichkeit. Dies setzt auch immateriellen Produkten, namentlich Computerprogrammen, Wachstumsgrenzen. Unkontrollierbare Komplexität führt zu Fehlern und Systemabstürzen, unnötige Komplexität ist unverhältnismäßig teuer.
    Die Bekämpfung der Kompexitätsfalle erfordert einerseits einen sauberen und auf Einfachheit ausgerichteten Systementwurf, anderseits aber auch disziplinierte Implementationsarbeiten aller Beteiligten, namentlich auch der einzelnen Programmierer, die dabei immer wieder zugunsten einer ausgewogenen Gesamtllösung auf „schnelle Goodies“ und auch auf das Ausspielen ihrer Tricks verzichten müssen.
  12. Materielle und immaterielle Ressourcen schonen und der Nachwelt keine unnötigen Lasten aufbürden;
    Die Informatik bietet grosse Chancen, natürlich Ressourcen zu schonen und ökologische Belastungen zu verringern, indem sie die Wertschöpfung durch immaterielle Dienstleistungen, die Material- und Energieeffizienz sowie die Erforschung komplexer Systeme unterstutzt.
    Sie trägt aber auch zur ökologischen Belastung bei, indem wertvolle Rohstoffe für die Hardwareproduktion eingesetzt werden, die nach kurzer Zeit in toxischem Elektronikabfall enden. Mehrere Millionen Tonnen Elektronikabfall pro Jahr sind bereits zu einem weltweiten Umweltproblem geworden. Der Stromverbrauch durch dauerbetriebene Computerhardware (v.a. Server) und hierfür notwendige Ventilations- und Klimaanlagen ist ebenfalls ökologisch relevant.
    Es gehört deshalb auch zur ethischen Verantwortung der Informatikerinnen und Informatker, die ökologisch positiven Auswirkungen der Informatik zu fördern sowie auf einen nachhaltigen Umgang mit der Hardware hinzuwirken.

3. Zusätzliche Verantwortung bei Führungsfunktionen[Bearbeiten | Quelltext bearbeiten]

Als Mitglied der Schweizer Informatik Gesellschaft werde ich bei der Wahrnehmung von Führungsfunktionen

  1. meine Mitarbeiterinnen und Mitarbeiter mit ihrer sozialen Verantwortung vertraut machen;
  2. im Rahmen meiner Möglichkeit Mitarbeiterinnen und Mitarbeiter sowie Ressourcen so einsetzen, dass die Qualität des Arbeitslebens verbessert wird;
  3. ICT-Systeme so beschaffen und einsetzen, dass Würde und Rechte von Benutzerinnen und Benutzem sowie von betroffenen Dritten geschützt werden;
  4. sicherstellen, dass Benutzerinnen und Benutzer sowie betroffene Dritte einer ICT-Lösung ihre Anforderungen klar zum Ausdruck bringen können und diese angemessen berücksichtigt werden;
  5. von ICT-Systemen Betroffenen die Möglichkeit eröffnen, sich über deren Prinzipien und Beschränkungen zu informieren.
  6. dafür sorgen, dass die ICT-Mittel in meinem Verantwortungsbereich rechtmässig und angemessen genutzt werden.
  7. dafür sorgen, dass die ICT-Systeme in meinem Verantwortungsbereich betriebsmässig überschaubar und transparent sind.

4. Anwendung der Ethikrichtlinien[Bearbeiten | Quelltext bearbeiten]

Als Mitglied der Schweizer Informatik Gesellschaft werde ich

  1. mich an diese Ethikrichtlinien halten.
  2. die Förderung und Verbreitung dieser Ethikrichtlinien unterstützen.
  3. Gelegenheiten nutzen, diese Ethikrichtlinien zum Bestandteil von Arbeitsverträgen und ähnlichen Vereinbarungen zu machen.

5. Rolle der Schweizer Informatik Gesellschaft[Bearbeiten | Quelltext bearbeiten]

Die Schweizer Informatik Gesellschaft erklärt die Anerkennung und Einhaltung dieser Ethikrichtlinien zu einem integralen Bestandteil ihrer Mitgliedschaftsbedingungen.

Die Schweizer Informatik Gesellschaft wird darüber hinaus

  1. diese Ethikrichtlinien einer breiten Öffentlichkeit bekannt machen und deren Anwendung als Bestandteil von Arbeits-, Werks- und Dienstleistungsverträgen propagieren.
  2. Fälle von Verstössen gegen diese Ethikrichtlinien sammeln und regelmässig in geeigneter Weise publizieren, um einen Sensibilisierungs- und Lerneffekt zu erzielen.
  3. ausgewählte Fälle didaktisch aufbereiten und für die ethische Aus- und Weiterbildung in der Informatik zur Verfügung stellen.
  4. die Funktion eines Ethikbeauftragten einführen, der bei ethischen Fragen in Zusammenhang mit dem Einsatz von ICT vertraulich konsultiert werden kann.
  5. eine regelmässige Überprüfung und allfällige Anpassung dieser Ethikrichtlinien gewährleisten.