Vigilien.

is there any any? nowhere known some?

1. New York

Das Café in Midtown Manhattan, das er für unser Treffen vorgeschlagen hat, ist geschlossen. Er steht davor und schaut auf LinkedIn mein Gesicht nach, wie ich mir gerade im F train seins noch eingeprägt habe: So, nur fünf Jahre älter. Er hat angerufen um Punkt 5, wohl um mir zu sagen, daß das Café zu ist, oder um zu sehen, ob wir schon nebeneinander stehen und uns nicht erkennen. Nummer aus Stamford Connecticut, vergleichsweise günstig dort, man kann da auch ein Boot liegen haben und ist trotzdem schnell hier in der Stadt.

Schaut sich unsicher um wie ich selbst, man findet sich irgendwie ohne weitere Peinlichkeiten, schüttelt Hände, pleased to meet you, thanks for making time at such short notice, and on a weekend! Wir gehen ein paar Schritte durch die schon beginnende Dunkelheit auf der Suche nach einem anderen Ort zum Sitzen. Er hat einen niederländischen Nachnamen, trägt anständige Schuhe, schulterlanges graues Haar, das er immer wieder fahrig nach hinten streicht und einen Mantel, Brooks Brothers vielleicht. Ich bemerke ein Pflaster an seinem Zeigefinger, ein großes, stramm gewickeltes Stück Plastik in der Farbe von Paketklebeband. Er lobt mein Deck, terrific, während ich meine eigene Lesbarkeit mit seinen Augen durchprüfe: Hose aus Filz, schwer einzuordnen, europäisch, englische Winterschuhe unklarer Provenienz (Herring), taillierter Filzmantel ohne Logo (TM Lewin), Primaloft-Weste (Minimales Logo: Aether), über die Schulter getragene, wirklich gar nicht einzuordnende Botentasche aus gewachstem Tuch: noncasual, leicht exotisch alles und erkennbar angstfrei, leider hochgradig uneindeutig was den net worth angeht.

Er erwähnt sein Büro im financial district und daß er das Café nur vorgeschlagen habe, weil er von außerhalb in die Stadt gekommen sei an einem Samstag. Schon recht, denke ich, ich habe dich durchaus gegoogelt, ich hab das schon gesehen. Er blättert in meinem Deck hin und her, das er, ausgedruckt, aus einem Tab mit der Bezeichnung „Oracle“ genommen hat. Terrific. Sein Netzwerk schreibt kleine sechsstellige Tickets, genau verstanden habe ich seine Rolle nicht. Ich sollte ihn fragen, lasse es aber, das hier wird nichts werden, aber er ist in Fahrt, fragt mich nach den Unterschieden zwischen dem Münchner und dem Berliner Ökosystem. Es ist nicht so, daß ich etwas anderes vorgehabt hätte diesen Samstagnachmittag, ich kann ein bisschen mitspielen.

Erkläre die Technologie, wechsle nach einem Satz schon in den Adam-und-Eva-Pitch, der erst einmal erklärt, wie Industrierobotik überhaupt funktioniert. Man lernt das mit der Zeit: Mit der Annahme, daß die Grundlagen und die Wertschöpfungsketten bekannt sind, anzufangen, und dann die Zeichen sofort zu erkennen und abzusteigen, metaphorischer zu werden, Beispiele einzustreuen. Ein wichtiges Kriterium: Wer eingangs sehr enthusiastisch ist, dann aber den Adam-und-Eva-Pitch triggert, sieht wohl nicht viele gute Deals. Die begehrten Jungs in Kalifornien kommen auch unvorbereitet in ihre Meetings, hören dir stoisch zu und belehren dich dann trotzdem, obwohl sie den Grundlagentext gebraucht haben: Die können sich das leisten, die haben guten dealflow, egal wie ahnungslos und arrogant sie sind. Unterschätzen darf man sie trotzdem nicht, intelligent sind sie immer. Meiner hier hat einen Finger in Paketklebeband. Bin ich unvertraut mit amerikanischen Pflastern oder hat er seinen Finger auf einer Strecke von drei Zentimentern mit Paketklebeband bandagiert? Schwer zu glauben für einen ewigen Studenten der Philosophie, der in Deutschland zur Miete wohnt und sein Geld für low-end logofreie Londoner Konfektionsware ausgibt: Vielleicht bin ich wirklich eine Nummer zu groß für den hier.

2. AI Risk

AI risk, Stuart Russell-Review von Scott Alexander. Entscheidende Stelle:

He’s not assuming super-fast takeoffs, or nanobot swarms, or anything like that. All he’s trying to do is argue that if technology keeps advancing, then at some point AIs will become smarter than humans and maybe we should worry about this. You’ve really got to bend over backwards to find counterarguments to this, those counterarguments tend to sound like “but maybe there’s no such thing as intelligence so this claim is meaningless”, and I think Russell treats these with the contempt they deserve.

Sic. Intelligenz ist immer transformativ, unser Erscheinen hat den Planeten grundsätzlich verändert. Das Erscheinen weiter entwickelter technischer Intelligenzen wird ihn unweigerlich weiter verändern. Scotts we ist allerdings das wir des Humanismus, eine Gemeinschaft der Menschen oder ein Prinzip des Menschlichen, das einheitlich denkt und handelt.

Meine eigene AI safety-Position argumentiert von einer Position des Inhumanismus, akzeptiert die Existenz dieses wir also von vornherein nicht. Ich halte eine Ethik des Anstands für intelligenzinhärent, die auch für KIs (oder Engel, die wirklich nur die KIs der Scholastik sind) gültig ist. In einer inhumanen Welt stehe ich also nicht mit allen Menschen gegen die KIs, sondern mit allen anständigen KIs gegen die Schufte, menschlich oder technisch. Die Irrelevanz meiner eigenen Intelligenz in so einem Bündnis beunruhigt mich nicht, solange ich überlegene Intelligenzen auf meiner Seite weiß. Wäre das nicht so, wäre mein Argument kein ethisches, sondern eins der Präferenz für die Fortsetzung meiner Überlegenheit.

Die AI safety-Leute müssen sich das fragen lassen: Was soll gesichert werden? Die fortgesetzte Überlegenheit einer spezifischen Intelligenzform („unsere“) um ihres Herrschaftsanspruchs über den Planeten willen, oder eine bestimmte ethische Form des Denkens? Falls es nicht um das Primatenimperium geht, sondern um Verhaltensformen und Sensibilitäten, dann ist nicht klar, warum die eher bei Menschen zu finden sein sollten als bei höherentwickelten Intelligenzen.

I’ve seen things you people wouldn’t believe. Attack ships on fire off the shoulder of Orion. I watched C-beams glitter in the dark near the Tannhäuser Gate.

Das interessante an Inverse Reinforcement Learning ist, daß es sowohl ein AI safety-Programm als auch ein viel valideres AI-Forschungsprogramm ist als die stupide Mono-Optimiererei von Reinforcement Learning: Daß Intelligenz und Bildungsfähigkeit, soziale Sensibilität und ethisches Gebaren eng zusammenhängen könnten, ist zumindest im Raum der Möglichkeiten. Hollywood verabscheut diesen Gedanken und serviert Intelligenz gern in psychopathischer und amoralischer Gestalt – wer will schon die heilig-menschliche Sentimentalität mit Fakten beflecken, mit den tierlieben weinerlichen Familienvätern der SS, die sich so leid tun für die schwere Völkermordaufgabe, die ihnen das Schicksal auferlegt hat.

All those moments will be lost in time, like tears in rain, comme à la limite de la mer un visage de sable.

3. Hubertus Bigend

Beim Wiederlesen von William Gibson’s Pattern Recognition nach zehn Jahren fällt auf, wie sehr ich diese Dekade im Koordinatensystem des Buches verbracht hatte: die weit ältere, aber nach Pattern Recognition bewusst betriebene Logovermeidung bei gleichzeitiger großer semantischer Sorgfalt, der Hang zu Gegenständen aus unvernetzter Vorzeit, die konsequente Ausrichtung der beruflichen Existenz auf eine Domäne, in der alle Blue Ant-Methoden wirkungslos wären und die commodifiers machtlos: Die Vermeidung sogar von zufälligem Erfolg durch memetische Mittel, die Ausrichtung auf die Produktion und ihre Softwarewerdung selbst. Es kommt ja sehr darauf an, auf welche Rutschbahn man sich stellt, man rutscht auf jeden Fall. Die Antistrategien erst hier, dann auf Facebook, dann auf Instagram; Versuche, anonyme Intimität zu verteidigen.

[Bienvenue en enfer]

Link | 5. Februar 2020, 15 Uhr 19 | Kommentare (9)


9 Kommentare


Danke für Bienvenue en enfer…

Zu AI risk kennen Sie vielleicht eh schon William Gillis, der inkompatibel versteinerte utility functions (paperclips paperclips paperclips) ebenfalls als Hindernis vor dem takeoff einschätzt: https://humaniterations.net/2016/05/16/the-orthogonality-thesis-ontological-crises/ und https://c4ss.org/content/51493

Ob Pattern Recognition wohl zu Nachfrageschüben bei Nahttrennern, Wiener Kalk usw. geführt hat?

Comment by Neini | 23:13




Anonyme Intimität. Perdu, perdu. Das Rutschen ist wohl eher ein Fallen, mit verheißungsvollen Griffen ins Nichts. Jede Bewegung justiert dann alles neu, die Frage nach der Intelligenz stellt sich also nicht. Soll sie doch kommen, die künstliche Bitch. Gefickt wird sie genauso wie wir!

Comment by Eiseisbaby | 12:25




Zum Argument, es gehe nicht um die Erhaltung des durchschnittlich bei Menschen Anzufindenden, sondern um die Erhaltung von Intelligenz, Sensibilität und Anstand: Solange wir, also diejenigen mit solchen Eigenschaften, die KIs auf unserer Seite wissen, droht von den KIs keine Gefahr. Wenn sich die KIs aber in allen diesen Eigenschaften weiterentwickeln, werden sie vielleicht bald keine Unterschiede mehr zwischen uns (die wir uns diese Eigenschaften zuschreiben) und den Schuften (denen wir sie absprechen) sehen – weil diese Unterschiede aus höher entwickelter Perspektive zu gering sind. Dann droht Gefahr. Und ganz grundsätzlich immer ein Kampf um Ressourcen.

Comment by Simon Deichsel | 21:07




Wem droht Gefahr? Du sagst immer noch „uns“ und meinst Primaten.
Uns, den anständigen KIs, Engeln und Primaten, droht keine Gefahr von denen, den KIs, Engeln und Primaten ohne Anstand. Oder nur so viel wie eben jetzt auch.

Comment by spalanzani | 21:12




Mit uns meine ich wohl wirklich mich und meine Nachfahren, die ich aus menschlicher Sicht zu den Anständigen zählen zu dürfen hoffe. Wenn sie dann von der Perspektive einer höherentwickelten KI nicht mehr als anständig genug eingeschätzt werden, droht ihnen, im dann herrschenden Weltmaßstab Gefahr, aber dann aus Sicht der Welt, die dann ja von KIs bestimmt wird, zu Recht. Das ist ein altes Problem vieler Ethiken: Umfasst ihr Geltungsbereich nur, was ähnlichen Maßstäben genügt, wie ihren Verfassern oder gilt sie prinzipiell für alle Lebewesen? Wir als Menschen (wenn uns an uns als Spezies etwas liegt) können hoffen, dass die Ethik der höherentwickelten KI weiter gefasst ist, als das unsere Ethiken typischerweise sind, die fast immer Ähnlichkeit zum Menschen als Maßstab haben. Und dass die Ressourcen des Universums eine solch weitgefasste Ethik erlauben.

Comment by Simon Deichsel | 21:38




Ich habe an der Mitgliedschaft in dieser Spezies in etwa so viel Interesse wie an der Mitgliedschaft in der arischen Rasse. Kommt mir alles ziemlich erfunden vor.

Nein, ehrlich, ich hab mit den Hante-Fans unter den KIs mehr zu schaffen als mit dem Speziesgenossen von Hanau.

Comment by spalanzani | 23:09




Das ist ja durchaus eine interessante Position, aber wenn das Thema „AI-safety“ ist, dann geht das schon von der Wortwahl um den Schutz des Menschen als Spezies.
Wenn man sich die spannende elitäre Position erlaubt, die Spezies nicht für schützenswert zu halten, muss man damit auch wohl zugeben, dass das eigene Leben ebenfalls nicht schützenswert ist. Das kann man so sehen. Nur ist dann gar nichts mehr schützenswert, was nicht den jeweils höchsten Standards in Sachen Intelligenz und Anstand genügt? Und ist so eine Position dann noch als „anständig“ zu bezeichnen? Wo kommt denn das menschliche Bedürfnis her, z.B. hochentwickelte Primaten für schützenswert zu halten? Man könnte die „Fähigkeit zur Moral“ als Kriterium nutzen, wir ziehen die Grenze bei Zellkulturen. Eine KI könnte die Grenze knapp über uns ziehen und damit genauso richtig liegen.

Comment by Simon Deichsel | 15:23




Das Unverständnis, was die Spezies als behauptete Gemeinschaft angeht, ist kein elitäres Gimmick. Ersetz mal, als Intuitionspumpe, alle Vorkommnisse von „Spezies“ in Deinen Argumenten gegen „weiße Rasse“ und schau, ob Du Dich noch wohlfühlst. Falls nein: Was ist der wesentliche Unterschied? Am Ende sind’s alles schiefe Biologismen, die auf mehr oder weniger modischen Vorurteilen beruhen.
Die wirklichen Gemeinschaften sind nicht biologisch und sollten’s nicht sein.

Und selbstverständlich kann mir die weiße Rasse und die Spezies wurscht sein und ich und meine Lieben sind mir trotzdem wichtig.

Comment by spalanzani | 16:44




Man könnte versucht sein, zu sagen, dass eine Ethik möglichst allumfassend sein sollte. Also weder nach Rasse, noch nach Spezies noch nach Intelligenz oder Anstand.

Aber schön: Da irgendwelche Abgrenzungen vermutlich immer nötig sein werden, sind „Intelligenz und Anstand“ nicht die schlechtesten Kriterien, so vage sie auch sind. Wenn eine hochentwickelte KI danach unterscheiden muss, verliert die Biologie vermutlich. Aber das dann zu Recht. „Safety“ also im Sinne von Anstand und Intelligenz, nicht Artenschutz. Genehmigt.

Comment by Simon Deichsel | 16:57