Posts mit dem Label Informationswissenschaft werden angezeigt. Alle Posts anzeigen
Posts mit dem Label Informationswissenschaft werden angezeigt. Alle Posts anzeigen

Montag, 23. September 2019

Wenn Computer selber wissenschaftlich publizieren

Prof. Dr. Rüdiger Buchkremer (ex HTW Chur) hat sich am IFID-Institut in den letzten zwei Jahren intensiver mit der Systemmedizin beschäftigt. Einerseits analysierte er umfangreiche Textmengen zu einem medizinischen System und fasst die wichtigsten Erkenntnisse mit künstlicher Intelligenz zusammen. Anderseits fand er auch Ähnlichkeiten zwischen verschiedenen Krankheiten, sowie besonders seltenes Wissen zu einer medizinischen Fragestellung. Die Techniken werden bereits angewandt und darüber publiziert. Im Film erklärt er das im Gespräch mit Jochen Werner, Ärztlicher Direktor des Universitätsklinikums Essen und David Matusiewicz, Medizinökonom und Institutsdirektor an der FOM, sehr anschaulich und verständlich.



Dabei geht es nur am Rande um Medizin und viel mehr um künstliche Intelligenz. In Dr. Werners Fachgebiet werden jährlich rund 6000 wichtige Papers publiziert. Ergo müsste er täglich deren 20 lesen. Künstliche Intelligenz fasst die 6000 Publikationen zusammen. Das ist einerseits toll, andererseits auch beängstigend, wenn Computer Publikationen zusammenfassen und selbständig neue Artikel oder Bücher publizieren.

Samstag, 9. Juni 2018

Den Klauen Amazons enttrinnen

Vor kurzem bekam ich ein e-Mail eines kleinen Verlages, der mich bat an einer Umfrage teilzunehmen. Das Formular liess mir das Blut in den Adern stocken: Gefragt wurde nach Name, Adresse, Telefon, etc. etc. Dann schaute ich mir das Video an:



Formal ist das Video nicht besonders toll. Insbesondere der Ton ist zu leise. Interessant jedoch, wie der Verleger offen über seine Überlegungen und Gedanken spricht: Was Amazon aus kommerzieller Sicht richtig macht und wie er von den grossen Giganten abhängig ist und wie er aus dieser Abhängigkeit ausbrechen will.

Die Überlegungen sind so falsch nicht. Ob es gelingen wird? Zumindest einige Dinge macht dieser Mann meiner Meinung nach richtig:
  • Er berlegt sich, was für sein Geschäft wichtig ist.
  • Er überlegt sich ob er das besser alleine stemmt oder besser auslagert.
  • Er tritt mit seinen online Kunden in einen Dialog.
  • Er ist transparent, ehrlich und offen.
Mit diesen vier Punkten könnte es in der schmalen Nische, in der der Verlag tätig ist gelingen. Wir werden sehen.

Freitag, 30. September 2016

Bibliotheken ins Netz verknüpfen

Carol Jean Godby, Shenghui Wang und Jeffrey K. Mixter verfassten kürzlich ein Buch zum Thema, wie die Sichtbarkeit von Bibliotheksbeständen im Web durch sogenannte „Library Linked Data” erhöht werden kann. Die Verfasser arbeiten alle in der Forschungsabteilung des OCLC.

Weil die meisten Suchen nach Informationen überall im Internet gestartet werden, nur nicht in Bibliotheken oder Online-Bibliothekskatalogen selbst, konzentriert sich die Neuerscheinung auf die konzeptionellen und technischen Herausforderungen, die mit der Veröffentlichung von Linked Data – hergeleitet von den traditionellen Bibliotheks-Metadaten – einhergehen. Die Verfasser gehen davon aus, dass dieser Prozess ist nicht rückgängig zu machen ist. Die Bearbeitung von Daten hin zu einer Datenform, die das Web besser versteht und verarbeiten kann, wird die Bedeutung der Bibliotheken im Internetzeitalter wieder stärken.



Das Webinar erklärt (in amerikanischem Englisch) die Transformation des Internets von einem Netz von Dokumenten zu einem Netz von verknüpfbaren Daten, wie es im neu erschienenen Buch "Library Linked Data in the Cloud: OCLC's Experiments with New Models of Resource Description" beschrieben wird. Das Webinar dauert eine Stunde. Das Buch kann jede Buchhandlung besorgen, eine Bestellung ist auch im Netz möglich.


Sonntag, 31. Juli 2016

Verschwinden die Bibliotheken im Internet?

In einem Interview der Zeitschrift Research Information sprach der Internetexperte David Weinberger von einem „library-sized hole“ im Internet. Er warnte davor, dass das Wissen der Bibliotheken weiter marginalisiert würde, wenn diese sich zukünftig nicht besser im Web präsentierten. Eine Lösung gegen diese Entwicklung sei Linked Data. Dies und weitere Ideen präsentierte er auf dem EMEA Regional Council Meeting 2015 in Florenz. Seine Präsentation finden Sie hier.

Das Thema Linked Data hat auch die OCLC dazu inspiriert, sich der Sache anzunehmen und ein Online-Webinar zu organisieren. In dem Webinar „Linked Data in Bibliotheken: Ist-Situation und Zukunft.“ präsentieren Ihnen zwei anerkannte Linked Data Experten Fakten und Trends zu diesem hoch aktuellen Thema.

  • Welche Relevanz hat Linked Data für Bibliotheken? 
  • Welche neuen Möglichkeiten bietet Linked Data für Ihre Institution?

Eine Aufzeichnung es Webinars steht zur Verfügung:
Linked Data in Bibliotheken: Ist-Situation und Zukunft

Dienstag, 13. Oktober 2015

Datenspuren des Infocamp 2015

Anfang Monat fand im herbstlich wunderschönen Bündnerland an der HTW eine Unkonferenz zum Thema Open Data im weiteren Sinne statt. Dabei ging es zum ersten um Data Life Cycle Management, Open Data Tools und um die Herausforderungen bezüglich Open Data für Informationseinrichtungen.

Ausserdem um den Weg von der Aufbewahrung zum Zugang. Daraufhin wurden Aspekte der Kompetenzen zur Nutzung offener Daten beleuchtet, bevor der erste Konferenztag mit Open GLAM Metrics endete. Am Samstagmorgen kam die Kontextualisierung von Daten ebenso zur Sprache, wie Open Data Policies und die Nutzung von Open Data durch GLAM-Institutionen.


Montag, 19. Januar 2015

Internet, bitte bevormunde uns

Hat andere Qualitäten:
miteinander fernsehen (1958).
«Man schaltet den Fernseher ein, um sein Gehirn abzuschalten. Und man schaltet den Computer ein, um sein Gehirn einzuschalten», sagte der 2011 verstorbene ehemalige Apple-Chef Steve Jobs an der Mac World 2004. Eli Pariser widerspricht ihm, wenigstens teilweise: «Die personalisierte Filterung wird immer besser, und so werden wir immer weniger Energie für die Auswahl eines bestimmten Inhalts aufbringen werden.»

Angefangen hat die Bevormundund mit der Lancierung von Google Instant im Jahr 2009: Die Suchmaschine gibt schon bei der Eingabe vor, zu wissen, was man sucht. Nach Einschätzung von Sheryl Sandberg, Facebooks Nummer 2, kommen uns bereits in drei bis fünf Jahren Websites, welche nicht auf den einzelnen Nutzer abgestimmt sind, «seltsam veraltet» vor.

Mittwoch, 15. Oktober 2014

Scharfe Debatte um Netzneutralität

Auch Sir Tim Berners-Lee, der Begründer des World Wide Web und Erfinder der Computersprache HTML, hat sich in die Debatte um die Netzneutralität eingeschaltet. Er plädierte im britischen «Guardian» für die Netzneutralität, ebenso wie Steven Wozniak, Mitgründer von Apple, der sich in einem offenen Brief im Magazin «The Atlantic» besorgt äusserte. Selbst der beliebte Komiker John Oliver widmete dem Thema eine ganze Sendung, woraufhin die Server der FCC mit 300 000 E-Mails und Kommentaren überhäuft und vorübergehend lahmgelegt wurden. Viele Kritiker befürchten auch, dass die Telekommunikationskonzerne die erhobenen Gebühren gar nicht nutzen werden, um die Infrastruktur auszubauen und Datenstaus zu verhindern, sondern die Einnahmen als Gewinn einstecken wollen.
Verschärfend für die Debatte kommt hinzu, dass sowohl einige Netzanbieter wie auch IT-Konzerne angefangen haben, ihr Geschäftsmodell zu verändern und vertikal zu integrieren: Sie wollen künftig die komplette Wertschöpfung von der Erstellung der Inhalte bis zu deren Übertragung an den Endnutzer aus einer Hand leisten können. Google erwägt beispielsweise, sich an einem Glasfaserkabel unter dem Pazifik zu beteiligen und so seine eigenen Inhalte, die grösstenteils auf Servern in Nordamerika stehen, schnellstmöglich nach Asien, dem bevölkerungsreichsten Kontinent, übertragen zu können. Damit würde der IT-Konzern seine marktmächtige Stellung ausbauen und sich von den Netzbetreibern unabhängig machen, statt diesen Gebühren für schnelle Leitungen zahlen zu müssen.
Die wiederum geben sich nicht mehr damit zufrieden, nur Dienstleister für die Inhalte anderer zu sein: Comcast etwa hat sich am Streaming-Dienst Hulu beteiligt, einem direkten Konkurrenten von Netflix. Sollte die Netzneutralität tatsächlich aufgehoben werden, könnte Comcast seinen eigenen Streaming-Dienst bevorzugen, also Hulus Inhalte schneller übertragen als die von Netflix. Ebenso könnte Google auf der Glasfaserleitung seine eigenen Inhalte und die seiner Tochterfirmen priorisieren. Da die Auswirkungen wohl so eklatant wären, hat sich selbst der Verband deutscher Zeitungsverleger mittlerweile in die Debatte eingemischt und warnt vor einem «Albtraum demokratischer und marktliberaler Gesellschaften», sollten Netze und Inhalte vertikal integriert werden.
Der Kampf um Netzneutralität wird aber nicht nur in Internetforen, Medien und Parlamenten ausgetragen, er tobt auch an der Front der Lobbyisten. Comcast als – am Umsatz gemessen – weltgrösster Kabeldienstbetreiber gab allein 2013 18,8 Millionen Dollar für politische Einflussnahme aus und ist damit der zweitgrösste Lobbyist der USA. Die Ausgaben scheinen sich zu amortisieren: Vorsitzender der FCC wurde im vergangenen November Tom Wheeler , ein ehemaliger Toplobbyist amerikanischer Kabel- und Telekommunikationsfirmen – und Golfpartner von Barack Obama. Die Telekommunikationsfirmen werden nun also von einem Ehemaligen aus ihren eigenen Reihen beaufsichtigt. Derart pikante Details sind Wasser auf die Mühlen der Gegner der FCC-Pläne.
Auch wenn die Debatte um Netzneutralität in den USA am stärksten tobt, treibt sie auch andere Staaten um. Chile war das erste Land, das 2010 die Netzneutralität gesetzlich verankert hat . Seit dem 1. Juni dieses Jahres ist es dort Netzbetreibern sogar verboten, bestimmte Inhalte positiv zu diskriminieren, also etwa die Datenpakete von Facebook, Google oder Wikipedia nicht dem monatlichen Datenvolumen der Nutzer hinzuzurechnen. Solche Verletzungen der Netzneutralität sind auch bei deutschen und amerikanischen Anbietern bekannt, bisher hat aber nur Chile ihnen einen Riegel vorgeschoben.
Die Niederlande hielten die Netzneutralität zunächst 2011 im Mobilfunk, 2012 auch im Festnetz gesetzlich fest, allerdings mit einigen Ausnahmen versehen. Slowenien hat 2013 ein Gesetz verabschiedet, nach dem nur ein richterlicher Beschluss die Netzneutralität ausser Kraft setzen darf. In der Schweiz ist der Bundesrat mit einer derartigen gesetzlichen Neuregelung beauftragt (siehe Kasten). Auch in der Europäischen Union wird darüber diskutiert, die Netzneutralität in der geplanten Verordnung zum gemeinsamen Telekommunikationsmarkt festzuschreiben. Das EU-Parlament hat kürzlich einen entsprechenden Vorschlag verabschiedet, den derzeit der Ministerrat erörtert.

Gefahr des Monopols

Ob in der Europäischen Union, der Schweiz oder den USA, die Gesetzgeber sehen sich mit Grundsatzfragen konfrontiert: Soll der Staat die freien Kräfte des Marktes spielen lassen, also die bisher geltende Maxime der Netzneutralität fallen lassen? Möglicherweise riskiert man dann, dass eine Handvoll mächtiger Netzanbieter kontrolliert, welche Inhalte im Internet wie schnell übertragen werden. Man könnte jedoch argumentieren, dass in einem funktionierenden Markt die Endnutzer derartige Praktiken bestrafen und den Anbieter wechseln würden. Doch in ländlichen Regionen haben oft nur ein oder zwei Anbieter die «letzte Meile» an Leitungen zu den Haushalten verlegt. Laut einer FCC-Studie verfügen 80 Prozent der amerikanischen Bevölkerung nur über Zugang zu maximal zwei Kabelanbietern.
Sollte der Staat also stattdessen die Netzneutralität gesetzlich zementieren? Um das durchzusetzen, brauchte es wohl eine umfangreiche Überwachung und regulatorische Eingriffe, wie die Gesetze in Chile und den Niederlanden zeigen. Zudem herrscht schon heute aus Praktikabilitäsgründen keine absolute Neutralität: Netzbetreiber bevorzugen Datenpakete für Internettelefonie vor denen von E-Mails, weil bei Ersteren die Übertragung zeitkritischer ist. Eine gewisse technische Diskriminierung ist im Netz also durchaus nötig.
«Doch wo verläuft die Grenze bei dieser Diskriminierung? Und wer zieht sie?», fragt sich Urs Gasser. Er ist Direktor des Berkman Center for Internet and Society an der Harvard University in Boston, das sich mit Fragen der Netzneutralität auseinandersetzt. Derzeit stünden die Regulatoren vor einem Dilemma: Wenn sie jetzt die Situation falsch einschätzten und nicht intervenierten oder eben doch, könnten sie eine Monopolsituation begünstigen – entweder zugunsten der Netzanbieter oder der marktmächtigen Internetkonzerne. Und ein derartiges wie auch immer geartetes Monopol könnte die künftige Freiheit im Internet tatsächlich gefährden, so Gasser.
Ein Szenario, bei dem lokale Nachrichtenseiten diskriminiert würden, wäre dann wohl nur der Anfang.
Quelle: NZZ (erster und zweiter Teil am 1. und 15. September veröffentlicht)

Montag, 15. September 2014

Netzneutralität hat eine lange Vorgeschichte

Um die Dimension des Themas zu verstehen, muss man zunächst einen Schritt zurückgehen, zu den Anfängen des Internets. In den neunziger Jahren wurde dieses kommerziell nutzbar, zunächst aber nur zurückhaltend eingesetzt, etwa für E-Mails, Chat-Foren oder simpel gestaltete Webauftritte. Grosse Firmen und auch die Medienbranche unterschätzten jahrelang das Potenzial und die künftige Bedeutung des Netzes.
Als Infrastruktur für die Datenübertragung dienten damals wie vielerorts noch heute Kupferkabel, die auf der letzten Meile die Haushalte mit dem nächsten Knotenpunkt des Internets verbinden. Das ist aber auch das Einzige, was im Netz in den vergangenen 25 Jahren gleich geblieben ist. Videotelefonie, Musikstreaming und die Nutzung von Datenwolken haben sich geradezu explosionsartig vermehrt und werden qualitativ immer besser – verlangen aber auch immer höhere Bandbreiten. Die Infrastruktur dürfte in den kommenden Jahren noch stärker beansprucht werden: Die Telekommunikationsfirma Cisco erwartet eine knappe Verdreifachung des Datenvolumens bis 2018, wobei Videos dann einen Anteil von 80 Prozent ausmachen dürften.
Dass immer mehr Nutzer das Internet für immer datenintensivere Dienste brauchen und somit ihre Internetanschlüsse vollumfänglicher ausreizen, stellt die Telekommunikationsfirmen vor Probleme. Sie als Anbieter müssten allmählich die bestehende Infrastruktur, insbesondere die Hauptachsen des Netzes, ausbauen, um dem Wandel gerecht zu werden. Wie eine Autobahnstrecke, die im Laufe der Zeit immer beliebter geworden ist und irgendwann erweitert werden sollte, damit Staus vermieden werden, müssten die Netzanbieter in neue Leitungen investieren. Dafür wollen sie aber nicht alleine zahlen und argumentieren, die eigentlichen Profiteure einer schnelleren Infrastruktur seien grosse IT-Konzerne wie Amazon, Google – oder der in den USA äusserst beliebte Streaming-Dienst Netflix. Netflix überträgt TV-Serien und Filme per Internet und beansprucht dafür etwa ein Drittel der in den USA verfügbaren Datenbandbreite.
Wer viel Kapazität nutze, müsse auch dafür zahlen, fordern die Netzanbieter und lassen ihren Worten zurzeit in den Vereinigten Staaten Taten folgen: Der amerikanische Telekommunikationskonzern Comcast hat Netflix aufgefordert, zusätzliche Gebühren für den reibungslosen Transfer seiner Streaming-Dienste zu zahlen – also dafür, dass die Videos mit kontinuierlichem Datendurchsatz und ohne Ruckeln beim Endkunden ankommen. Um den Druck auf Netflix zu erhöhen, hat Comcast seit Herbst 2013 die Übertragungsgeschwindigkeit für Netflix' Inhalte reduziert, ähnlich wie auch die Anbieter AT&T und Verizon. Netflix hat schliesslich im Februar dem Druck nachgegeben – und profitiert seitdem von rasant schnellen Übertragungsgeschwindigkeiten bei Comcast (siehe Grafik).
Fast gleichzeitig hat die amerikanische Federal Communications Commission (FCC), also die staatliche Aufsichtsbehörde über die Kommunikation, einen Vorschlag zur Reform des Telekommunikationsgesetzes erlassen, um «das freie und offene Internet» zu sichern. Mit diesem würde das Verhalten von Comcast legalisiert. Das geplante Gesetz würde es Netzanbietern tatsächlich erlauben, das Internet zu einer zweispurigen Datenautobahn umzubauen: einer Spur für den normalen Verkehr und einer besonders schnellen, qualitativ besseren, aber gebührenpflichtigen Fahrbahn für Konzerne. Allerdings müssten derartige Bevorzugungen öffentlich gemacht werden und dürften Dritte nicht benachteiligen, wendet die FCC ein. Damit würden die USA als erstes Land weltweit mit dem Grundsatz der Netzneutralität brechen.

Aufschrei im Netz

Eine bemerkenswert breite Front hat sich innerhalb kürzester Zeit gegen die Pläne der FCC gebildet: In einem offenen Brief an die Behörde warnen 150 Technologiefirmen wie Amazon, Google, Facebook oder auch Netflix vor einer Zweiklassengesellschaft im Netz. Sie argumentieren, Startups wären so auf langsamere Datenleitungen beschränkt, was Innovation und Wettbewerb verhindern würde. Bisher profitieren besonders neugegründete Firmen davon, dass sie im Netz die gleiche Infrastruktur nutzen können wie etablierte Technologiekonzerne.
Quelle: M.L. in NZZ (siehe auch 1. Teil vom 1. September)

Montag, 1. September 2014

Google-News schneller geladen als Tagi oder NZZ?

Dass Kommunikation im Internet nicht sicher ist, weiss man spätestens seit den Enthüllungen über den amerikanischen Geheimdienst NSA. Nun rückt eine andere Frage in den öffentlichen Fokus: Wie neutral ist und sollte das Netz sein?
Man stelle sich folgendes Szenario vor: Abends auf der Couch möchte man sich über die Geschehnisse des Tages informieren, besucht also verschiedene Nachrichtenseiten im Internet. Doch die Artikel lokaler Zeitungen werden nur schleppend geladen, Videos der öffentlichrechtlichen TV-Sender ruckeln unerträglich – die einzigen Nachrichten, die schnell erscheinen, sind die grosser amerikanischer Konzerne wie Yahoo- oder Google-News. Etwas irritiert bleibt man bei deren Inhalten hängen und sucht sie künftig direkt auf.

Neue Produkte, alte Leitungen

So oder ähnlich könnte die Zukunft des Internets aussehen, würde die Netzneutralität aufgehoben. Hinter diesem abstrakt und bürokratisch anmutenden Begriff steckt nichts als die Tatsache, dass im Netz alle Daten mit gleicher Geschwindigkeit und Güte übertragen werden, unabhängig von ihrem Inhalt, Absender oder Empfänger. Ein Video auf der Plattform Youtube wird also genauso schnell oder langsam geladen wie eines des Konkurrenten Vimeo; die Website einer konservativen Zeitung oder Partei so schnell wie die einer sozialdemokratischen oder liberalen. Einzig der gewählte Internetanschluss eines Endnutzers limitiert die Geschwindigkeit, mit welcher die Daten übertragen werden.
Diese Neutralität war bisher ein ungeschriebenes Gesetz im Internet, doch nun ist darüber ein weltweiter Konflikt ausgebrochen, der zu Gesetzesinitiativen, Diskussionsrunden und Petitionen geführt hat. Internetpioniere melden sich zu Wort, die EU arbeitet an einem Gesetzesvorschlag, und amerikanische Lobbyisten versuchen mit Millionen von Dollars die Debatte zu beeinflussen. Auch in der Schweiz erwägt man, die Netzneutralität gesetzlich zu verankern.
Dabei geht es um Grundsätzliches: Gelten im Internet die Gesetze des freien Marktes und der Preisbildung? Oder ist das Netz ein öffentliches Gut, ein Medium der freien Meinungsäusserung, dessen Zukunft als solches es zu schützen gilt?

Quelle: M.L. in: NZZ

Samstag, 25. Mai 2013

170 Jahre Software

Es mag unglaublich tönen, aber die erste Software wurde vor 170 Jahren entwickelt - einige Zeit vor dem ersten Computer nota bene.

Ebenso erstaunlich, dass das erste Computerprogramm von einer Frau geschrieben weroden ist: Ada Lovelace, eigentlich Ada Byron. Lovelace schrieb einen Algorithmus, mit dem die Bernoullizahlen mit einer mechanischen Rechenmaschine hätten berechnet werden können. Da diese jedoch nie gebaut worden ist, war die erste Software vorerst überflüssig. Imerhin wurde in den 1970er-Jahren eine Programmiersprache Ada genannt.

Samstag, 6. April 2013

Einsamkeit als Problem
moderner Gesellschaften

Bild:Caspar David Friedrich
Ob Handy, Facebook oder Twitter: In einem Zeitalter, in dem die technische Kommunikation immer mehr überhandnimmt, mag die Frage nach der Einsamkeit antiquiert erscheinen. Und doch gibt es sie, die Augenblicke der Leere. Ein Gastbeitrag von Hans Peter Dreitzel.

Es scheint ein Widerspruch: Die Vernetzung unter den Menschen nimmt immer mehr zu, und doch fühlen sich immer mehr Menschen von Einsamkeit bedroht. Historisch gesehen leben wir in einer Gesellschaft, in der die Chance, in Kontakt zu fremden Menschen zu gelangen, unvergleichlich hoch ist. Das liegt zum einen daran, dass Verstädterung und Globalisierung zu immer grösserer Mobilität zwingen, und zum anderen an der rasanten Entwicklung der elektronischen Kommunikationstechniken. Indes sind die allermeisten Begegnungen mit anderen Menschen flüchtiger Natur: Man sieht sich bei der Arbeit, im Verkehr, beim Einkauf, auf Behörden, beim Arzt, also in Situationen, in denen nur das Nötigste gesprochen wird. Oder man trifft sich bei Konferenzen, auf Geschäftsreisen, in den Ferien oder bei sportlicher Betätigung. Auch hier bleiben die Kontakte fast immer kurzfristig, oft einmalig: zum Abschied ein unverbindliches «Man sieht sich . . .», «Wir telefonieren mal!». Diese Kontakte bleiben auf partielle soziale Rollen beschränkt, sind dem Augenblick verhaftet und von vornherein aufs Vergessen angelegt.

Entindividualisierte Begegnungen
Soziologen haben in modernen Gesellschaften immer wieder einen durchgängigen Individualisierungsprozess erkennen wollen. Das scheint aber nur für die ganz engen Beziehungen zuzutreffen, für die die ganze Persönlichkeit eines Menschen relevant ist. In anderen Bereichen des sozialen Miteinanders ist eher das Gegenteil zu beobachten:
eine Entindividualisierung unserer Begegnungen. Diese Tendenz steigert sich noch in der Virtualisierung unserer Kontakte durch die elektronischen Medien: Dort lässt sich einerseits eine Hypertrophie der Kontakte, etwa durch die ständige Erreichbarkeit per Handy oder E-Mail, beobachten und andererseits ein Verlust an persönlichen, sinnlich erfahrbaren Begegnungen mit einem leibhaftigen Gegenüber. Im Chatroom wird der andere vollends zum Phantom: Die Identität des Gesprächspartners ist nicht mehr feststellbar, und mit der Zurechenbarkeit der Äusserungen schwindet auch die Verantwortlichkeit für sie.

Zwar sind heute unsere meisten Kontakte mit fremden Menschen nicht mehr bedrohlicher Natur; wir müssen normalerweise nicht fürchten, dass der mir Fremde mich beraubt oder gewalttätig wird (gerade diese allgemeine Friedlichkeitserwartung macht die jugendlichen U-Bahn-Schläger so unheimlich). Aber unsere meisten Kontakte mit anderen Menschen sind funktionaler Natur und befriedigen damit nicht unser fundamentales Bedürfnis danach, als ganze Person mit unseren eigenen biografisch gewonnenen Erfahrungen und Kompetenzen, Neigungen und Eigenschaften wahrgenommen zu werden. «Nur auf dem Umweg über andere hat sich der Mensch» (H. Plessner).

Das ist ein alter Erkenntnis-Grundsatz der philosophischen Anthropologie. Erst im Spiegel solcher, denen wir vertraut sind, können wir unsere eigene Identität ausbilden und behaupten. Wir brauchen also andere Menschen nicht nur zur Bewältigung von Aufgaben, die besser kooperativ gelöst werden können, wir brauchen sie auch zum Austausch und zum Mit-Teilen unserer inneren Erfahrungen, unserer Gefühle und Empfindungen, die sich eben nur auf dem Umweg über andere klären lassen und als sinnvoll erfahren werden können. Menschen aber, die uns dieses notwendige Gegenüber sein können, sind – im krassen Gegensatz zur Vielzahl unserer funktionalen Kontakte – ein knappes Gut. Daher die immer häufiger empfundene Bedrohung durch die Möglichkeit zu vereinsamen.

Blosses Allein-Sein freilich macht noch nicht einsam, wie man sich umgekehrt gerade auch in der Menge sehr einsam fühlen kann. Allein zu sein, ist ein Zustand – Einsamkeit ist ein Gefühl, dessen doppelter Kern aus der Angst vor Hilflosigkeit und dem Mangel an physischen und psychischen Streicheleinheiten besteht. Jeder Mensch braucht Hautkontakt – und braucht auch Anerkennung durch Wertschätzung. Dass geteiltes Leid halbes Leid und geteilte Freude doppelte Freude ist, das sind Erfahrungen, die jeder Mensch, der in einer unzerstörten Familie aufgewachsen ist, schon in seiner Kindheit gemacht hat und die das ganze Leben lang als Sehnsuchtsbild alle Partnersuche von innen her steuern.

Die auf das Elternpaar mit ein, zwei Kindern reduzierte Familie, die kinderlosen Paare und die selten gewordenen engen Freundschaften sind die letzten verbliebenen Refugien menschlicher Begegnungen, in denen von vornherein und immer die Person als ganze gemeint ist. Wer solche ganzheitliche Beziehungen entbehren muss, wird ständig mit Einsamkeitsgefühlen zu kämpfen haben.

Nicht alle sind vernetzt
Es gibt Positionen im sozialen Gefüge, die dafür besonders anfällig sind. Da sind die allein lebenden Alten, die nur noch geringe Chancen haben, einen Partner zu finden, und denen das Know-how für den Zugang zu den Internetforen fehlt. Da sind die frisch Geschiedenen, die mit ihrem Partner oft einen grossen Teil ihres alten Freundes- und Bekanntenkreises verlieren. Da sind die Flüchtlinge, die die neue Sprache noch nicht beherrschen. Da sind die durch Mobbing Isolierten, die kaum noch jemanden finden, der zu ihnen hält. Da sind die Abhängigen, die mit ihrer Sucht alle ihre Kontakte zerstören. Und da sind die im Wahnsinn Gefangenen, deren inneres Erleben sie der Welt entfremdet. Diesen Menschen ist gemeinsam, dass ihnen die kulturellen Mittel fehlen, die erst den Zugang zu den Kontakten mit anderen Menschen ermöglichen. Kontakte zu knüpfen und Partnerschaften einzugehen, wird aber heute gesellschaftlich von jedem erwachsenen Menschen wie selbstverständlich erwartet. Wer dabei scheitert, erlebt sich leicht als Versager und schämt sich dafür – was dann die Kontaktchancen weiter mindert und die Suche nach therapeutischer Hilfe blockiert.


Hans Peter Dreitzel ist Professor em. für Soziologie und Gestalt-Psychotherapeut. Zuletzt erschienen: «Gestalt und Prozess. Eine psychotherapeutische Diagnostik» (2004). Der Beitrag erschien in der gedruckten Ausgabe der Neuen Zürcher Zeitung.

Samstag, 7. April 2012

Endlich: IPv6 kommt
(auch wenn leicht verspätet)

Der im Internet bisher verwendete IPv4-Standard ist völlig veraltet und verwendet 32-Bit-Adressen, womit sich 4,3 Milliarden Internet-Hosts unterscheiden liessen. Die letzten Adressblöcke wurden bereits vor einem Jahr vergeben. Neue IPv4-Adressen sind technisch nicht mehr möglich – das Internet ist voll.

Nein, natürlich nicht. Aber nun kommt Druck auf, endlich den seit 1998 bestehenden IPv6-Standard einzuführen. Der neue Standard hat 128 Bits und umfasst somit 2128 Adressen, was doch für einige Zeit reichen sollte. Ausserdem verspricht er mehr Sicherheit und einfacheres Netzwerkmanagement. Ab 6. Juni 2012 stellen nun die grossen Internet-Betreiber auf IPv6 um. Darauf haben sie sich unter der Schirmherrschaft der Internet-Gesellschaft (ISoc) verständigt. Mit dabei sind AT&T, Cisco, Google und das «Gesichterbuch». Unter der Adresse http://test-ipv6.ch kann man testen, ob der eigene Computer/Navigator IPv6-tauglich ist.

Datenschutz
Bereits vor vier Jahren hat c't einen Bericht (IPv6 für kleine Netze) veröffentlicht, wie man IPv6 im eigenen Netzwerk (zu Hause, in der Schule, im KMU) nutzen kann. In Sachen Datenschutz kennt IPv6 Privatsphären-Erweiterungen, die eigens zum Schutz der Nutzer konzipiert wurden. Wird diese Option genutzt, ist die Identifizierung einzelner Geräte anhand der IPv6-Adresse unmöglich.

So wird es unter Windows 7 gemacht, unter Mac OS muss man es einschalten. Dazu legt man eine neue Textdatei an, nennt diese sysctl.conf, kopiert den Text net.inet6.ip6.use_tempaddr=1 hinein und speichert sie in private/etc. Am besten öffnet man das Dienstprogramm «Terminal» und tippt folgenden Text ein:
  • sudo nano /etc/sysctl.conf
Dann klickt man auf die Zeilenschaltung. Womöglich muss man dann das Administratorenpasswort eingegeben. Achtung: Beim eingeben erscheint nichts, also keine schwarzen Punkte. Wieder die Zeilenschaltung drücken. Dann diesen Text einkopieren (kopieren, einsetzen):
  • net.inet6.ip6.use_tempaddr=1
Darauf drückt man die ctrl-Taste und während man sie noch drückt die Taste x. Darauf folgt erscheinen am unteren Rand Möglichkeiten wie y yes und n no. Mit dem tastendruck auf y sichert man alles. Darauf kann man das Programm beenden.

Mittwoch, 28. März 2012

Document Freedom Day

Document Freedom DayJe tenais à vous signaler, au cas où vous l'ignoriez, qu'aujourd'hui est un jour tout particulier, notamment pour l'univers de l'information documentaire. C'est en effet le «Document Freedom Day».

Je ne sais exactement comment il faudrait le traduire, mais pour ma part j'aime bien l'idée d'une «Journée de libération des documents». Pour une meilleure interopérabilité (donc pour garantir l'échange, la diffusion et le partage), ainsi que pour assurer une certaine pérennité des données numériques, il est essentiel de passer par des formats et des standards libres, ou à tous le moins ouverts.

Et nous avons de la chance: choisir ces formats et standards est de moins en moins contraignant. Profitons-en!

Document Freedom Day — Offene Bibel (Plakat)Heute ist der Tag der Freien Dokumente (engl. Document Freedom Day). Der Tag soll jeweils am letzten Mittwoch im März das «Bewusstsein für frei zugängliche Dokumente» in Erinnerung rufen.

Gerade heute, wo Bibliotheken gegen Verlage kämpfen müssen, dass sie gewisse Zeitschriften noch ausleihen oder Kopien einzelner Seiten anfertigen dürfen und wo manche Anbieter mit proprietären Formaten die Kunden an sich ketten wollen, ist der Tag der Freien Dokumente wichtig. Die Förderung und Annahme der freie Dokumentenformate steht deshalb auch weit oben auf der Traktandenliste.
Dieser Erfahrungsbericht zeigt, weshalb offene Dokumente wichtig sind… und hier geht es noch etwas vertiefter zum Thema offener und verbotener (!) Information.

Freitag, 6. Januar 2012

Sicherheit: Das schwächste Glied in der Kette?

Angeblich hauen Profis auf Personen ein, Amateure führen Hackangriffe auf Computer aus. Lesen Sie zu diesem Thema den neusten Artikel unserer IT Risk Sensibilisierungkampagne.

«Es ist viel einfacher, eine Person dazu zu verleiten, ein Kennwort für ein Computernetzwerk oder eine Anwendung preiszugeben, als sich durch einen Hackangriff Zugang zu verschaffen». Diese Aussage stammt von Kevin Mitnick, ein bekannter ehemaliger Computerkrimineller, der den Begriff „Social Engineering” populär gemacht hat.

„Social Engineering” ist ein Begriff den Hackern verwenden, um Techniken für den Zugang zu Computersystemen zu beschreiben, die sich auf menschliche Schwächen und nicht auf Softwaretools stützen. Damit wollen sie Personen auszutricksen, sodass sie Kennwörter und sonstige Informationen preisgeben, die ein Hacker zur Schädigung der Sicherheit eines Computersystems einsetzen kann. „Social Engineering” kann wie folgt beschrieben werden: „die Kunst und Wissenschaft, Menschen dazu zu bringen, fremde Wünsche zu erfüllen.“

In einem Artikel in der Washington Post erklärte Mitnick, er habe in mehr als der Hälfte seiner erfolgreichen Netzwerkangriffe „Social Engineering“ eingesetzt, um Informationen über ein Netzwerk - und in einigen Fällen sogar Zugang zu dem Netzwerk - zu erhalten.

In seinem lesenswerten Buch The Art of Deception geht er noch weiter und erklärt Folgendes:

„… die Menschen möchten von Natur aus hilfsbereit sein und können daher leicht überlistet werden.“
„Sie setzen ein gewisses Mass an Vertrauen voraus, um Konflikte zu vermeiden.“
„Es dreht sich alles um den Zugang zu Informationen, die von den Personen für harmlos erachtet werden, es aber nicht sind.“
„Sie können ein Vermögen für den Kauf von Technologie und Dienstleistungen ausgeben …und Ihre Netzwerkinfrastruktur kann dennoch weiterhin herkömmlichen Manipulationen ausgesetzt sein.“
„Das schwächste Glied in der Sicherheitskette ist der Mensch…“

Wie können Angriffe durchgeführt werden?

Am häufigsten werden Angriffe dieser Art telefonisch durchgeführt. Ein Hacker ruft an und imitiert jemanden. Häufig tritt er als eine Autoritätsperson auf und bringt die Person allmählich dazu, so viele Informationen wie möglich preiszugeben. Beispielsweise sind Telefonanrufe, bei denen der Hacker sich als ein Mitarbeiter des Helpdesks oder des Desktop-Supports ausgibt, und die Kennwörter der Benutzer abfragt. Ein effizienter und einfacher Weg, um Computerbenutzer zur Preisgabe von Informationen zu verleiten.

Eine weitere Möglichkeit von „Social Engineers“ kann sein, dass er sich als Netzwerkadministrator ausgibt, um die notwendigen Daten zu erhalten. Der Hacker versendet eine E-Mail-Nachricht über das Netzwerk und behauptet, er benötige den Namen und das Kennwort des Benutzers, um ein technisches Problem zu beheben. In anderen Fällen erhalten Sie möglicherweise eine E-Mail-Nachricht mit einem Link zu einer Website, der noch mit einem Wettbewerb lockt. Auf dieser Website werden Sie aufgefordert, ein Formular auszufüllen, das die Namen von Kollegen und Vorgesetzten, Telefonnummern und sonstige sensible Informationen umfasst. Diese Fakten können insgesamt dem Hacker dabei helfen, sein „Social Engineering“-Netz auszubauen und schliesslich Ihr Computernetzwerk zu schädigen.

Wie kann ich mich und meine Firma vor einem „Social Engineering”-Angriff schützen?

Geben Sie niemals Ihr Kennwort bekannt (sofern Sie nicht dazu befugt sind). Alle berechtigten Netzwerkbenutzer verfügen über ihre eigenen Konten und ein Administrator, der eine Aufgabe auszuführen hat, kann diese über sein eigenes Konto ausführen. Einem Administrator muss Ihr Kennwort nicht bekannt sein. Für das Zurücksetzen eines Kennwortes oder das Entsperren eines Kontos ist kein Kennwort erforderlich.

Im Folgenden finden Sie weitere Tipps, um „Social Engineering”-Angriffe zu vermeiden:

  • Überprüfen Sie die Identität aller Anrufer.
  • Stellen Sie sicher, dass alle Besucher das lokale Registrierungsverfahren für Besucher durchlaufen und stets die korrekte Besucheridentifizierung angezeigt wird.
  • Geben Sie niemals vertrauliche Geschäftsinformationen preis. Seien Sie vorsichtig, wenn ein Anrufer Sie nach Angaben von andere Mitarbeitern fragt, u. a. Namen und Positionen.
  • Ignorieren Sie es, wenn Sie ein Anrufer oder unbekannter Besucher dazu auffordert, etwas in Ihren Computer einzugeben, sofern Sie nicht davon überzeugt sind, dass die Person dazu berechtigt ist.
  • Achten Sie auf Personen, die Ihnen bei der Eingabe Ihres Kennwortes über die Schulter schauen.
  • Geben Sie nicht die Einwahlnummer für Ihr Computernetzwerk oder ein System bekannt, sofern es sich nicht um berechtigte Benutzer handelt.
  • Beantworten Sie niemals die Fragen von externen Telefonumfragen.

Was ist zu tun, wenn Sie Ihrer Einschätzung nach einem Angriff ausgesetzt sind?

Falls Sie einen Anruf erhalten, bei dem es sich nach Ihrer Einschätzung um einen „Social Engineering“-Angriff handelt, sollten Sie wie folgt vorgehen:

  • Schreiben Sie die Nummer auf, wenn diese auf Ihrem Telefon angezeigt wird.
  • Machen Sie ausführliche Notizen über das Gespräch, einschliesslich Datum und Uhrzeit.
  • Fragen Sie nach dem Namen und der Nummer des Anrufers.
  • Nehmen Sie umgehend Kontakt mit Ihrem IT-Sicherheitsteam vor Ort auf und befolgen Sie die lokalen Verfahren für den Vorfall.
  • Warnen Sie Ihre Kollegen.

Dienstag, 20. September 2011

Zitierfehler und Falschzitate wegen Übersetzungsfehlern

Ben Kaden diskutiert in LIBREAS.Library Ideas anhand des Aufsatzes The virtues of correct citation—careful referencing is important but often neglected even in peer reviewed articles. im Deutschen Ärzteblatt den Fehler im Zitat und nimmt dabei zu einem Kernproblem der Wissenschaftskommunikation Stellung.

Ebenso lesenswert ist meines Erachtens auch der dazugehörige Leserbrief: Darin wird nicht nur auf die je nach Publikation andere Zitierweise verwiesen - was die Fehleranfälligkeit natürlich erhöht, sondern auch die anglophone Dominanz erwähnt. Durch Schreibfehler bei der Übersetzung und der amerikanische Blickwinkel des Science Citation Index würden andersprachige Publikationen benachteiligt. Statt nun aber ins Geheul einzustimmen, alles solle nur noch englisch publiziert werden, wird vorgeschlagen, einen deutschen/deutschsprachigen Impaktfaktor ins Auge zu fassen. Daraus ergäben sich mehrere Vorteile:
  1. Neue Erkenntnisse würden zuerst in der Landessprache (deutsch) diskutiert, bis sie international spruchreif sind. Durch den längeren Vorlauf, wären die Erkenntnisse auch besser abgestützt.
  2. Die Landessprache als Wissenschaftssprache kann auch Aktivitäten bündeln, die auf einer internationalen Ebenen nicht oder nur von geringem Interesse sind
  3. Die deutsche Sprache ermöglicht die Konstruktion von Gedankengebäudn, die auf englisch nur sehr schwer zu verbalisieren seien.
Alles in allem zwei äusserst lesens- und vor allem auch bedenkenswerte Artikel. Insbesondere die vom Leserbriefschreiber aufgeworfene Frage der Landessprache als Wissenschaftssprache verdient eine vertiefte Diskussion.

Bild: Vorbei die Zeiten, in denen lateinisch und nur mit kirchlicher Druckerlaubnis publiziert wurde. (Quelle: Universitätsbibliothek Straßburg, Wissenschaftliche Publikation Isaac Newtons von 1687.)

Donnerstag, 2. September 2010

Vierte Gewalt gefährdet Demokratie

Weit verbreitet ist die Befürchtung, es gehe puncto Qualität der journalistischen Angebote vor allem bergab. Diese Ansicht teilt auch der Zürcher Soziologieprofessor Kurt Imhof. Am 13. Auhust 2010 hat er ein umfassendes Datenmaterial der Öffentlichkeit vorgestellt, das einen Überblick über die Schweizer Medienlandschaft verschafft und die düsteren Perspektiven wissenschaftlich bekräftigt.

Im Kern geht es den Forschern um eine politische, inhaltliche Frage: Unterrichten die Schweizer Medien die Bevölkerung so, dass die Bürger wohlinformiert an den demokratischen Prozessen teilnehmen können? Die Autoren erkennen höchst problematische Tendenzen:
  • immer mehr Klatsch; weniger Politik, Wirtschaft und Kultur.
  • weniger Nachhaltigkeit; nur noch Episoden, Personen.
  • Auslandberichterstattung stark abgebaut.
  • Wirtschaftsinformation bleibt mangelhaft.
  • Gratiszeitungen und Internet senken das Bewusstsein für Preis der Informationsqualität.
  • Einbruch bei Werbeeinnahmen erschwert die Finanzierung redaktioneller Leistung.
Schlimmer noch: Die Bedeutung derjenigen Medientitel, die wenig zur Informationsqualität beitragen, wird weiter wachsen; der recherchierende, einordnende Journalismus gerät weiter unter Druck.

Da sich die Presse sich vermehrt an den Unterhaltungsbedürfnissen der Konsumenten orientiert, «statt an Informationsbedürfnissen der Staatsbürger» ist nach Ansicht von Imhof das Funktionieren der Demokratie in der Schweiz gefährdet. Mit seinen Forschungsdaten will er nun die Diskussion über Aufgabe und Qualität der Medien fördern.

Quelle: Neue Zürcher Zeitung

Donnerstag, 15. Juli 2010

Was das E-Buch nicht kann - oder: Für ein neues Lesen im Internet-Zeitalter

Das E-Book, wie wir es kennen, ist eine billige Imitation der größten gestalterischen Errungenschaft der Menschheit: des Buchs. Einer der bedeutendsten Software-Entwickler unserer Zeit, David Gelernter, blickt skeptisch auf überbordenden Technologieballast und entwickelt eine Vision des neuen Lesens.

David Gelernter ist einer der brillantesten Computerwissenschaftler der Gegenwart. Er schuf die Grundlagen für das „Word Wide Web“, wie wir es heute kennen. Er ist ein Technologe, aber auch einer der schärfsten Skeptiker moderner Technologien. Er ist Informatiker, aber auch Maler, Essayist und ein großer Kenner der Geschichte des Judentums. Der Name David Gelernter ist mit dem Siegeszug des digitalen Zeitalters verknüpft, aber er ist auch eines seiner Opfer. Am 24. Juni 1993 öffnete David Gelernter ein Päckchen, in dem er eine Dissertation vermutete. In Wahrheit war es einer der Sprengsätze des Unabombers Ted Kaczynski, der in seinem Hass auf die technologische Revolution die Köpfe dieser Revolution töten wollte.

Die Arbeiten des in Yale lehrenden Informatikers haben das „Word Wide Web“, wie wir es heute kennen, überhaupt erst möglich gemacht. Die Idee, Computer parallel zusammenarbeiten zu lassen, so dass sie sich „arbeitsteilig“ einer einzigen Aufgabe widmen können, schuf die Grundlage für die vernetzten Computer. Ausgehend davon, prophezeite Gelernter bereits 1991 die Entstehung des „World Wide Web“, fünf Jahre bevor es tatsächlich so weit war.

In seinem Beitrag in der Frankfurter Allgemeinen Zeitung unter dem gleichen Titel wie dieser Beitrag, untersucht er das Phänomen des elektronischen Buches. Dabei stützt er sich breit ab. Dabei stellt er fest, dass das e-Buch seinen Platz noch nicht gefunden hat. Indem es Papierbuch-Inhalte neu elektronisch zeigt, ist eine schlechte Lösung. Als der Tonfilm den Stummfilm abgelöst hatte, mussten die Drehbuchautoren, Regisseure und Schauspieler die Inhalte ja auch auf eine neue Art und Weise darstellen, um dem neuen Medium gerecht zu werden.

Wer skeptisch ist oder die neue Entwicklung noch am beobachten ist, dem sei das Essay Gelertnters sehr zu empfehlen. Eine kritische Auseinandersetzung, welche zwar die Finger kalr auf die Schwächen des e-Buches legt, aber auch das Potential im Auge behalten. Ein Artikel, der sich wohltuend vom Hurra-Gebrüll und den Verteufelungen abhebt.

David Gelernter: Was das E-Buch nicht kann - oder: Für ein neues Lesen im Internet-Zeitalter

Quelle: Frankfurter Allgemeine Zeitung

Dienstag, 15. Juni 2010

Webauftritt ist wichtigste Visitenkarte

Nach seinerzeit vom Institut für Wirtschaftsinformatik der Universität Bern aufgestellten 80 Kriterien untersuchen Studenten der Hochschule für Wirtschaft in Zürich (HWZ) jeweils die Internetauftritte von knapp 500 Schweizer Unternehmen.

Die Kriterien entstammen den fünf Bereichen:
  • Allgemeine Informationen
  • Corporate Governance
  • Investor Relations
  • Media Relations
  • Sprache und Navigation
Positive Erwähnung finden unter anderem: «Äusserst vorbildlich aufgemacht, sehr übersichtlich, alle nötigen Informationen vorhanden, wie man es machen sollte» (Erstplazierte Seite von +GF+). Ein Webauftritt hat sorgfältig erstellt zu sein, denn er stellt ein zentrales Informationsmittel dar. Bei der Bewertung wurde Wert gelegt auf:
  • Übersichtlichkeit, Nutzerfreundlichkeit
  • Gute Struktur, Navigation
  • Informationsgehalt der Seiten
  • Verwendung neuer Medien (z.B. Podcasts), Attraktivität
  • Dialog- und Kontaktmöglichkeiten
Insgesamt lagen die börsenkotierten Firmen mit 48/80 vor den nichtkotierten Firmen mit 37/80 Punkten. Rangliste nach Kategorien (jeweils die ersten drei — Seiten mit 70 oder mehr Punkten sind zur Anschauung verknüpft):
Total nichtkotiert: M-real (69), Siemens (68), Agip (67)
Bau: Dätwyler (62), Allreal (57), Geberit (57)
Chemie/Pharma: Givaudan (68), Novartis (63), Ems (61)
Nahrungsmittel: Nestlé (67), Bell (56), Barry Callebaut (50)
Verkehr: Kühne + Nagel (55), Panalpina (55), Unique (47)
Maschinen: +GF+ (77), GF Agie Charmilles (74), Schindler (69)
Energie: Aare-Tessin (70), Arbonia-Forster (68), BKW (63)
Quelle: Handelszeitung 47/2008

Donnerstag, 1. Oktober 2009

Rechtliche Aspekte zur Privatsphäre

Der Streit der Datenschützer mit Google um die detailreichen Strassenaufnahmen ist etwas aus der Öffentlichkeit gerückt. Gelöst ist er jedoch noch lange nicht. Das amerikanische Unternehmen verzichtet zur Zeit auf Aufnahmen in der Grossregion Zürich, grast dafür das Tessin ab. Die detailreichen Strassenbilder haben etliche Kritiker mobilisiert. Deren Befürchtungen teilen allerdings nicht alle Beobachter. Ein interessanter Beitrag der Neuen Zürcher Zeitung befasste sich mit den rechtlichen Aspekten des Daten- und des Persönlichkeitsschutzes.

Vor rund 100 Jahren ermächtigte das Schweizer Zivilgesetzbuch (ZGB) jemanden, der «in seiner Persönlichkeit widerrechtlich verletzt ist», gegen alle Verletzer den Richter anzurufen (Art. 28). «Persönlichkeit» hat der Gesetzgeber bewusst nicht definiert: Das würden die Gerichte schon entwickeln. So geschah es.
Grenzen der Öffentlichkeit

Heute gilt «Persönlichkeit» als Bündel von Facetten, die individuelle Züge der Persönlichkeit ausmachen. Eine wichtige solche Facette ist das Recht am eigenen Bild. Wer sich in Gruppen auf der Strasse bewegt oder im Stadion sitzt, nimmt in Kauf, beiläufig abgebildet zu werden; sonst soll er zu Hause bleiben. Am Stadioneingang warnen Plakate und Aufdrucke auf den Billetten, dass die Kamera die Besucher im Schwenkbereich erfassen kann. Anderseits muss der werktags gestylte Börsenhändler, der auf der Fussballtribüne das Hemd auszieht, nicht dulden, von der Kamera halbnackt aus der Menge herangezoomt und so publiziert zu werden.

Eine solch «fokussierte» Verletzung des Rechts am eigenen Bild ist widerrechtlich, ausser es liegt ein Rechtfertigungsgrund vor – so etwa ein überwiegendes öffentliches Interesse, mit dem meist die Medien ihre Nahaufnahmen rechtfertigen (Bundespräsident Merz am Cup-Final, ein protestierender Bauernführer an der Demo). Am Richter ist es, in den gar nicht seltenen Prozessen die Abwägung im Einzelfall vorzunehmen. Erst vor 15 Jahren hat das Parlament beschlossen, dass das ZGB angesichts der rasant beschleunigten Bild- und Speichertechnologie nicht mehr ausreicht. Es erliess das Datenschutzgesetz (DSG), um das ZGB zu ergänzen und zu präzisieren.

Heute sind Individuen berechtigt, im Sinne der Selbstbestimmung über Einträge ihrer Daten informiert zu werden, ja sogar Korrekturen zu erzwingen. «Gesammelt und bearbeitet werden so viele persönliche Daten wie nötig und so wenige wie möglich».

Wenn die versprochene automatische Unkenntlichmachung von Gesichtern und Autonummern oder die Löschung eines im Garten ab der Autodachkamera Abgebildeten nicht erfolgt, können Persönlichkeitsrechte verletzt werden. Der Datenschutzbeauftragte tut gut daran, Google beim Wort zu nehmen und mit einem Sperrantrag gemäss ZGB und DSG bei den Bundesgerichten zu drohen – solange die vollmundigen Datenschutzversprechen des Datengrossversorgers Google nicht annähernd perfekt funktionieren.

Quelle/ganzer Artikel: Neue Zürcher Zeitung, 4. September 2009.

Montag, 18. Mai 2009

Mit Wolfram und Google Richtung Zukunft

Die im März als «Google-Killer» angekündigte «rechnende Wissensmaschine» (computational knowledge engine) von Stephen Wolfram sorgte für Wirbel in Blogs und Zeitungen. Nun ist Wolfram Alpha in Betrieb.

Bei Faktenfragen aus Mathematik, Technik, Naturwissenschaften, Linguistik und Wirtschaft, die sich mit Zahlen, Tabellen, Schaubildern oder Formeln beantworten lassen, klappt das gut: Die eingegebene Zahlenreihe "2, 3, 5, 7" erkennt Wolfram Alpha als Beginn der Primzahlen und setzt sie entsprechend fort. Die Frage nach "H2SO4" zeigt unter anderem eine 3D-Darstellung eines Schwefelsäuremoleküls, "uncle's uncle's brother's son" klärt entfernte Verwandtschaftsverhältnisse per Stammbaum, "2 cups orange juice + 1 slice of cheddar cheese" enthüllt Kalorien- und Proteingehalt des Morgenessens.

Auch die IP-Adresse des anfragenden Computers wird mit einbezogen, etwa bei der Bitte um eine Himmelskarte – im Browser erscheint die aktuelle Konstellation der Gestirne bezogen auf den Aufenthaltsort des Benutzers. Etwas missverständlich war die Andeutung, der Webdienst werde natürliche Sprache verstehen: Jedem, der es gewohnt ist, mit einer Maschine über Zeichenketten wie "integrate x^3 sin^2 x dx" zu kommunizieren, mag eine Formulierung wie "population density Japan vs. Germany" wie natürliche Sprache vorkommen. Aber für den 08-15-Benutzer ist das anspruchsvoll. Das liegt aber nicht nur an den grundsätzlichen Schwierigkeiten von Computern mit natürlicher Sprache, sondern auch daran, dass die Antwortmaschine eben nicht das ganze Web, sondern nur ausgesuchte Quellen durchsucht. Für die Suche nach Billigferien, Kochrezepten, Gerüchten oder Klatsch ist Wolfram Alpha weder gedacht noch geeignet – ein Google-Killer, womit der Webdienst im Vorfeld oft verwechselt wurde, sieht anders aus; hingegen eine praktische Ergänzung.

Google hingegen hat vorerst in der englischen Version einige Erweiterungen eingebaut, welche in Richtung Zukunft weisen. Doch bekanntlich sind die letzten zehn Pozent der Entwicklung am schwierigsten. Optional können Ergebnisse nur vom gleichen Tag, Monat oder Jahr angezeigt werden oder aber ausschließlich Videodateien. Auch die bereits gestorben geglaubte «Timeline» mit der chroologischen Auflistung ist wieder da! Das ist praktisch für wissenschaftliche Recherchen. Das «Zauberrad» erinnert an Clusty und präsentiert verwandte Themen. Weitere Funktionen erlauben, Suchergebnisse in Tabellenform zum Vergleich nebeneinanderzustellen und Metadaten zum Suchergebnis anzuzeigen.

Im Gegensatz zum nicht nur als Google-Killer gehanadelten, sondern auch so angekündigten Wikia Search, scheint Wolfram Alpha im Numerischen, faktischen und statistischen Bereich grosses Potential zu haben. Bei den neuen Funktionen des Marktführeres braucht man sich wenig Sorgen zu machen; viel mehr deutet ihre Einführung darauf hin, dass sie, alle schon von Nischenanbietern eingeführt, sich nun rasch etablieren werden.

Quelle: Heise Onine