Wikipedia Diskussion:Kurier


Bitte achtet auf einen zivilisierten Umgangston!

Auch Diskussionsseiten sind nicht der Ort für öffentliche Beleidigungen – egal ob gegenüber Wikipedianern oder anderen Personen. Beiträge einzelner Diskussionsteilnehmer spiegeln grundsätzlich nur deren Meinung wider – unsachgemäße Äußerungen schaden jedoch auch dem Ruf der Wikipedia.

Siehe dazu auch: Wikiquette, Wikiliebe, Keine persönlichen Angriffe

Archiv
Archivübersicht (Präfixindex)
Wie wird ein Archiv angelegt?

Die Rückkehr von Superprotect

Mag ja sein, dass ich nicht so cool und hip bin, dass ich die Einführung des Superprotect-Rechts so witzisch nehme wie der Kurier-Berichterstatter. Aber tatsächlich zeigt für mich die Maßnahme, so begründet sie aus technischer Sicht vielleicht gewesen sein mag (für mich ist das alles Wikidata-Fachchinesisch), dass genau das passiert, was zu erwarten war: wenn es erst mal vorhanden ist, wird das Superprotect-Recht natürlich auch angewendet, und zwar so wie es ein einzelner Foundation-Mitarbeiter gerade für nötig befindet, ohne dass dafür irgendeine mit den Projekten abgestimmte Basis gegeben wäre. Ich weiß nicht, ob in diesem Falle auch andere, weniger absolute Eingriffe denkbar oder ausreichend gewesen wären, sie scheinen mir aber gar nicht mehr groß erwogen zu werden, wenn man alles auch per ordre de Mufti aus S.F. lösen kann. Für mich sind das jedenfalls keine wirklich verheißenden Aussichten. Gruß --Magiers (Diskussion) 19:43, 6. Okt. 2014 (CEST)Beantworten

Superprotect wurde hier eingesetzt, um zu vermeiden, dass durch eine versehentliche/unbedachte Bearbeitung das Data-Item über Deutschland (Q183) unbrauchbar wird (was leider momentan der Fall und auch nur schwer rückgängig zu machen wäre). Ein einfacher Seitenschutz hätte nicht vor versehentlichen Edits durch Admins geschützt. Ich sehe keine andere/bessere Möglichkeit, die Seite effektiv zu schützen, bis das Problem behoben ist.
Ich fände es wichtig, Richtlinien für den Einsatz von Superprotect zu entwickeln. Dabei muss aber klar sein, dass der Einsatz ggf schnell möglich sein muss, da es sich bei Superprotect ja um eine Notlösung für Extremsituationen handelt. Außerdem müsste eine solche Richtlinie global gelten - es ist für Foundation-Mitarbeiter, die im Notfall bestimmte Seiten/Funktionen schützen müssen, nicht machbar, sich für jedes der ggf betroffenen 800 Wikis durch die lokalen Richtlinien (in einer von 300 Sprachen) zu arbeiten.
(meine persönliche Meinung, keine offizielle Position von WMDE) -- Daniel Kinzler (WMDE) (Diskussion) 20:16, 6. Okt. 2014 (CEST)Beantworten
Alle Wikimedia-Projekte sollten sofort supergeschützt werden, sonst passiert noch was, zum Beispiel ein Zehennagel reißt ein! Das entspräche auch der Idee von Wikipedia:Geprüfte Versionen. −Sargoth 20:26, 6. Okt. 2014 (CEST)Beantworten
Die Probleme mit dem genannten Item hatten leider Auswirkungen über die Seite (Q183) hinaus. So waren nicht nur andere Wikidata-Funktionen betroffen, sondern auch bearbeiten in z. B. der russischen Wikipedia war teilweise nicht möglich. Auch Beobachtungslisten und weitere Features waren teilweise betroffen (in diversen Projekten). Wäre das nicht der Fall gewesen hätte hier niemand an einem Sonntag interveniert. Grüße, Hoo man (Diskussion) 20:45, 6. Okt. 2014 (CEST)Beantworten
Och, an einem Sonntag wurde schon ganz anderes aus der Tonne gestampft. Ich habe mein Problem nicht mit dieser anscheinend rein technischen Maßnahme, aber mit einer Geisteshaltung, in der Superprotect so normal geworden ist, dass man sich eine Welt ohne schon gar nicht mehr vorstellen kann. Wäre das Ganze vorm 10. August passiert - was hätte man denn dann gemacht? Wäre dann Wikipedia/Wikidata/Wasauchimmer untergegangen? --Magiers (Diskussion) 21:14, 6. Okt. 2014 (CEST)Beantworten
(Please forgive the response in English; my German is barely sufficient to read the question). Superprotect was used in this case because any edit to the page would have caused damage the editor could not have reverted; and since many (most?) edits to Wikidata are done through gadgets and scrips, admins could not have known how irreversible an edit is. We lack a mechanism to make a single article/item readonly at this time (which would have been what we used), but superprotect was the closest possible equivalent - the objective is not to prevent certain people to edits but to make sure no edits can be made because that would break the wiki. MPelletier (WMF) (Diskussion) 20:43, 6. Okt. 2014 (CEST)Beantworten
break the wiki is precisely what you did. Just in case you forgot: A wiki is a web application which allows people to add, modify, or delete content in collaboration with others (italics mine). --Edith Wahr (Diskussion) 22:28, 6. Okt. 2014 (CEST)Beantworten
However I wonder why there is such an extent of mistrust. Does the WMF really believes that wikidata local admins would not respect Hoo man's full protection of the item? --Matthiasb – Vandale am Werk™ (CallMyCenter) 21:10, 6. Okt. 2014 (CEST)Beantworten
There is no mistrust. I and (Hoo man) were quite certain nobody who knew about the protection would have tried to edit the item on purpose. The problem, again, is that most admins would never have seen that the page was protected, and that any edit – even inadvertant – could not be undone and would break not only that item, but cause problems on other projects as well. MPelletier (WMF) (Diskussion) 21:12, 6. Okt. 2014 (CEST)Beantworten
Hierzu muss man evtl. ergänzen, dass Wikibase (die Software hinter Wikidata) einen Seitenschutz beim bearbeiten nicht anzeigt, wenn ein Benutzer berechtigt ist die Seite zu ändern. Demnach wäre es einem Admin höchstwahrscheinlich nicht aufgefallen, dass die Seite geschützt ist. - Hoo man (Diskussion) 21:19, 6. Okt. 2014 (CEST)Beantworten
Dann sollte diese Anzeige mit Hochdruck entwickelt werden, damit es einen Grund weniger gibt, "Superprotect" einzusetzen. --Superbass (Diskussion) 21:20, 6. Okt. 2014 (CEST)Beantworten
Auch eine deutlichere Warnung gegenüber Admins wäre nicht hundertprozentig sicher. Auch Admins <add>könnten</add> verwenden externe Programme, die über die API Werte ergänzen und bei denen es keine derartige Warnungen gäbe. Grüße, —DerHexer (Disk.Bew.) 21:37, 6. Okt. 2014 (CEST)Beantworten
@DerHexer Diese Begründung klingt für mich unfassbar. Sind wir auf Wikidata soweit, dass durch die Hintertür Bots und Scripte Adminrechte haben? Einfach weil Benutzer, die ein (WD-A) hinter dem Namen tragen, Scripte verwenden können, die Seiten nicht auf ihren aktuellen Schutzstatus prüfen und ggf. einfach trotzdem ändern? Ist das von der WD-Community akzeptiert? --Mabschaaf 22:58, 6. Okt. 2014 (CEST)Beantworten
Keine Ahnung, wer will das auch kontrollieren? Jede bisher getätigte Adminaktion könnte rein theoretisch skriptunterstützt durchgeführt worden sein, wie das hier natürlich auch ab und an der Fall ist. Es gibt definitiv einen Unterschied zwischen einem automatischen Programm, das ohne Überwachung Adminaktionen durchführt (Bot genannt), und Admins, die Skripts je Fall benutzen, um Sachen wie Formulare auszufüllen und Speicherknöpfe zu drücken, zu vereinfachen. Die Entscheidung, eine Aktion zu fällen, ist in letzterem Falle noch immer eine humane Einzelfallentscheidung, das Skript nimmt einen Teil des Aufwandes einem ab, die Sorgfalt in der Entscheidung bleibt aber menschlich. Diese Aktion würde aber zum Teil API-Abfragen hervorrufen, die Schütze, die die API nicht berücksichtigen, umgehen könnten. Soll ja nur heißen, dass die Entwickler auch an die API denken sollen und nicht nur direkte Schutze andenken sollten. Und natürlich gibt es auch hier geduldete Adminbots, oder glaubt noch jemand ernstlich, dass pünktlich um Mitternacht alle IP-Diskussionsseiten von einem Admin innerhalb weniger Sekunden gelöscht werden, massenhaft offene Proxys gesperrt, ihre Benutzerseiten angelegt und geschützt wurden, usw. usf.? Es kommt auch dort auf den Sinn an. Grüße, —DerHexer (Disk.Bew.) 23:33, 6. Okt. 2014 (CEST)Beantworten
Warum braucht man plötzlich einen 100%-Schutz, den es in all den Projekten über 10 Jahre nicht gegeben hat? Und kaum zwei Monate nach Einführung von Superprotect wird durch einen (für mich kaum nachvollziehbaren) Praxisfall bewiesen, dass der Schutz unumgänglich sein soll? Tut mir leid, ich glaube das nicht. Man wäre immer auch ohne Superprotect ausgekommen und setzt es jetzt halt ein, weil es bequemer ist. Und man wird auch für jeden zukünftigen Superschutz Gründe finden, warum er absolut unumgänglich ist. --Magiers (Diskussion) 21:43, 6. Okt. 2014 (CEST)Beantworten
Ich hab hier nichts von Beweisen geschrieben, nur auf die Probleme, die auch bei einem Seitenschutz für Admins noch bestehen und ja, immer bestanden. Natürlich kann man auch weiterhin auf Risiko gehen und ich bin sehr davon überzeugt, dass es keine Probleme gegeben hätte. Der Grund ist hier aber da und auch nachvollziehbar. Wenn wir unser Wiki nicht mehr hätten editieren können aus dem genannten Grund, hätten wir auch auf eine saubere, stabile Lösung gezählt. Problem ist doch weiterhin eher, dass solch ein Schutz nicht bspw. durch einen Bürokraten, sondern durch die WMF selbst vergeben wird, worüber man sich auch tatsächlich ein wenig aufregen kann. —DerHexer (Disk.Bew.) 21:51, 6. Okt. 2014 (CEST)Beantworten
The only real alternative, DerHexer, would have been to code something in mediawiki core like was done for deletion of pages with over 5000 revisions – and that would have taken some time to do. It's not the first time Engineering has had to take a technical measure to prevent an on-wiki action entirely because it could be destructive. I used superprotection because it allowed to lock down precisely the one page that caused the issue and it was easier to remove once the problem is fixed. MPelletier (WMF) (Diskussion) 22:26, 6. Okt. 2014 (CEST)Beantworten
And this is now the "precisely" one point to keep the superprotection. Isn´t it the most perfect moment? We are all waiting for an answer about our question, and now this instead of an comment. I don´t believe anything of that scam! Whatever you try to tell us, for me it´s not reliable at all!--Hubertl (Diskussion) 03:26, 7. Okt. 2014 (CEST)Beantworten
(BK) Wäre Superprotect zu diesem Zweck eingeführt und erstmals eingesetzt worden, hätte sich sicher niemand aufgeregt: eine rein technische temporäre Schutzmassnahme um zu verhindern, dass durch ein gravierendes technisches Problem weiterer Schaden entsteht. Dagegen kann ja niemand ernstlich etwas haben. Wie MPelletier oben schreibt, wird Wikidata ja oft über "gadgets and scripts" bearbeitet, so dass ein Admin in der Tat schnell versehentlich das betroffene Item bearbeiten könnte. Aber Superprotect ist durch die Geschichte seiner Einführung belastet, es ist nun erstmal grundsätzlich suspekt - eine genaue Richtlinie für den Einsatz dieses Rechtes (z.B. für Fälle wie diesen hier - aber eben nicht, um bei Meinungsverschiedenheiten eine WMF-Position durchzudrücken) wäre sicher sehr wünschenswert. Den Artikel von Pajz habe ich jedenfalls mit Vergnügen gelesen :-) Gestumblindi 21:14, 6. Okt. 2014 (CEST)Beantworten
<neuer BK/another EC> Well that is an issue sometimes seen when articles are full protected and admin-authors are editing them. So that is rather the problem that the warning when editing a full protected page is insufficient. (FYI: in German WP admins should not edit a full protected article at all, exept for "emergencys"). --Matthiasb – Vandale am Werk™ (CallMyCenter) 21:19, 6. Okt. 2014 (CEST)Beantworten
The Wikidata-specific issue is that there are many scripts and gadgets used for editing. You often don't edit an item directly. So I think that it's more likely on Wikidata that an admin would inadvertently edit an item through some gadget without noticing the full protection - and I think that's what MPelletier is trying to say here. Yes, probably there should be better means of warning for such cases. Gestumblindi 21:24, 6. Okt. 2014 (CEST)Beantworten
@MPelletier (WMF): By the way, do you think you could implement something like a universal edit warning for protected items at Wikidata? Say, an unavoidable red notice popping up if an admin tries to edit a protected item through whatever means, saying something like "Warning! You are trying to edit a protected item. Are you sure that you want to do this? You might want to check the reasons for protection first." Gestumblindi 21:29, 6. Okt. 2014 (CEST)Beantworten
Jeder Tool-Autor muss soetwas selbst implementieren da Wikibase (und MediaWiki) keinen Einfluss auf externe Skripte hat (haben kann). Deshalb ist natürlich keine volle Abdeckung aller Tools mit so einem Feature möglich. - Hoo man (Diskussion) 21:32, 6. Okt. 2014 (CEST)Beantworten
Na, da wirds ja wohl eine Lösung geben. Notfalls können Admins einen gesperrten Datensatz halt nicht mehr einfach bearbeiten sondern müssen sie zuerst aktiv entsperren. Oder sie erhalten einen zusätzlichen Sperrlevel, der genau das bewirkt. --Superbass (Diskussion) 21:37, 6. Okt. 2014 (CEST)Beantworten
Einen zusätzlichen Sperrlevel wie Superprotect? Ja, wir sind beim Kernproblem: Diese (sinnvolle!) Aktion sollte durch Communitymitglieder und nicht von der WMF (allein) durchgeführt werden. Grüße, —DerHexer (Disk.Bew.) 21:51, 6. Okt. 2014 (CEST)Beantworten
Hmja, das wäre doch eine Idee: Eine Art "Superprotect", das auch den Admins zur Verfügung steht, und einfach etwas anders funktioniert als der übliche Vollschutz: "Admin-Superprotect" könnte von Admins genau wie der normale Vollschutz eingesetzt und aufgehoben werden, würde sich aber davon dadurch unterscheiden, dass so geschützte Seiten/Items auch von den Admins selbst nicht mehr bearbeitet werden können, bis sie die Sperre wieder aufheben. Gestumblindi 21:59, 6. Okt. 2014 (CEST)Beantworten
eure sorgen will ich mal haben. hilarmont 22:38, 6. Okt. 2014 (CEST)Beantworten

+1 Z. (Diskussion) 23:49, 6. Okt. 2014 (CEST)Beantworten

There is always more than one way to do it.--Aschmidt (Diskussion) 22:45, 6. Okt. 2014 (CEST)Beantworten

Mal ganz klein&leise: Versteh' ich das alles richtig? Ihr hochdotierten Developer habt so lange mit dem Algorithmus herumgespielt, bis eine Syntax 'rauskam, die du nicht mal berühren darfst, weil sonst alles kaputt geht? Eine Software, so fragil wie ein Kartenhaus, für ein "offenes Projekt"? Herzlichen Glückwunsch! Tja, das muss man dann natürlich einzäunen wie die Wüste Nevada. Hoffentlich spuckt kein Sheriff über euern Zaun. --Felistoria (Diskussion) 22:51, 6. Okt. 2014 (CEST)Beantworten
Blödes Herumgerede, um nachträglich das Faktum zu relativieren, dass hier Mist von den Developern gebaut wurde. Hätte es keine drittklassige Software mit viertklassigem, gewaltsamen Reindrücken in die Sprachversionen gegeben, dann hätte es niemals die Einsetzung eines Superprotects gegeben! Sicherheitshalber kaufen wir uns ein paar Langstreckenraketen, denn es könnte ja sein, dass die Kamtschatken Berlin mit ihren Fußhorden überfallen wollen. Denn die Kamtschatken sind ja wahnsinnig und unberechenbar! --Hubertl (Diskussion) 22:59, 6. Okt. 2014 (CEST)Beantworten

Also ich hab keine Ahnung, was da mit dem Deutschland-Item bei Wikidata los war/ist, aber ich halte den umseitigen Kurier-Artikel für eine Zumutung. Das massive Problem Superprotect mit all seinen negativen Konsequenzen wird durch den albernen Text zu einem banalen Scherz verharmlost. Och, kuck mal, da hat wieder ein WMF-Mitarbeiter mit seinen Superprotect-Knöpfchen rumgespielt. In Wirklich ist es anders: Die WMF hat ein mächtiges Werkzeug geschaffen und jetzt nutzen es einfach alle, die Zugriff darauf haben. Wie wäre es stattdessen mal mit vernünftiger Software, die erstens funktioniert, zweitens der Wikipedia-Community hilft und drittens akzeptiert wird? Dann braucht man auch keinen Notfall heraufzubeschwören, der nur durch MacGyver, äh Superprotect gerettet werden kann. --MSchnitzler2000 (Diskussion) 23:05, 6. Okt. 2014 (CEST)Beantworten

Genau so ist es! Ich halte es schlichtweg für eine Lüge und eine ganz offensichtliche Taktik, anstatt auf die Diskussion einzugehen (was ja tunlichst vermieden wird), eine Situation zu schaffen, in der die absolute Notwendigkeit so eines Tools unumstößlich festgezurrt wird. Ich vertraue keinem, aber inzwischen wirklich keinem mehr aus dem gesamten Foundationumfeld mehr. Was die mit uns machen ist Scheißpolitik mit uns als Verfügungsmasse und einem Verschleiern der wirklichen Ziele. Sie lügen uns an und es werden sich sicher ein paar nützliche Idioten finden, die das noch als etwas Sinnvolles verteidigen werden. Nein, solchen Leuten ist nicht zu trauen. --Hubertl (Diskussion) 23:17, 6. Okt. 2014 (CEST)Beantworten
Oben steht, dass MPelletier (WMF) keine sinnvolle Alternative sah, abgesehen von der Ergänzung eines deutlich weniger sicheren Codeschnipsels direkt in die Software. Dem kann man sicherlich widersprechen und weitere Alternativen suchen (Vertrauen auf die Admins ist schon eine genannte Variante). Ansonsten kann ich nicht wirklich sehen, dass die WMF diesen eigenen Fehler, über den man tatsächlich mit anderen hier nur den Kopf schütteln kann, als Rechtfertigung für die Einführung von Superprotect benutzt. Oder gibt's da einen Kommentar, den ich übersehen habe? Grüße, —DerHexer (Disk.Bew.) 23:38, 6. Okt. 2014 (CEST)Beantworten
Hier gibt es wenig zu übersehen, man hat inzwischen wohl nur noch die Möglichkeit, zwischen den Zeilen zu lesen. Die Geschichte mit den, mit Adminrechten versehenen Bots, ist doch bitte Unfug! Eine normale Sperre durch einen Admin muss (!!!!) einen Bot ausbremsen, anders geht es doch nicht. Wer eins und eins zusammenzählen kann, die Abläufe genau anschaut, der merkt, man sucht die smoking gun! Die Brutkastenstory auf wikipedianisch!--Hubertl (Diskussion) 03:31, 7. Okt. 2014 (CEST)Beantworten

Äh, liebe Wikimedia-Leute - geht´s noch? Da seid ihr zu blöd, die Software vernünftig zu programmieren und dann müsst ihr auch noch den gegen die Projektgrundsätze verstoßenden Superprotect hernehmen, um eure Unfähigkeit, stabile Software zu basteln, nicht in einem totalen Chaos münden zu lassen? Wikipedia ist eine der größten Webseiten des Internets - da darf sowas nicht passieren. Erst Recht nicht in einem Open-Source-Projekt... -- Chaddy · DDÜP 23:20, 6. Okt. 2014 (CEST)Beantworten

Bei der WikiCon kam von Richard Heigl der interessante Vorschlag, die MediaWiki-Software zu einer wirklich freien Software zu machen, was in der Praxis bedeutet es aus den Händen der Foundation zu nehmen und allgemein bearbeitbar zu machen. Marcus Cyron Reden 23:53, 6. Okt. 2014 (CEST)Beantworten

MediaWiki ist doch frei bearbeitbar. Jedes Scriptkiddie kann daran herumwerkeln. Es ist eben nur so, dass letztendlich jemand von der Foundation sagt, ja der Code wird akzeptiert oder nicht, bzw. die Erweiterung wird bei Wikipedia eingesetzt oder nicht. Es wäre schon lustig, wenn auf einmal ein paar Leute die zwar von Programmierung keine Ahnung haben, dann einfach irgendwelchen verbuggten Mist durchwinken und damit Wikipedia und vielleicht noch tausende weitere MediaWiki-Wikis stilllegen. Ich freue mich schon darauf, dann diejenigen die solchen Blödsinn durchgewunken haben, dauerhaft und lebenslang immer und immer wieder mit ihren dämlichen Fehlentscheidungen zu konfrontieren. Das eröffnet eine ganz neue Front im Wikipedia-Krieg. Aber naja, wenn der Marcus Cyron meint entscheiden zu können, welcher Code funktioniert und welcher nicht. Ich würde mir so eine Entscheidung nicht anmaßen. Liesel 10:00, 7. Okt. 2014 (CEST)Beantworten

Sagen wir mal so (nach'n paar BKs): nur weil du mal 'ne Runde Auto gefahren bist, kannst du nicht einfach zu Ferrari ins Werk laufen, um ein bisschen am Rennauto mitzubauen. Und nur, weil du ein paar Raketchen hast, darfst du nicht einfach mal in Area 51 hineinspazieren und da mitmachen. Im Gegensatz zur WMF hängen aber weder Ferrari noch die US-National-Security überall auf der Welt Zettel an die Bäume: Huhu, kommt alle her und macht mit beim Bau des stärksten Ferrari aller Zeiten, der tollsten Rakete des Universums! Das Ärgernis sind nicht die Entwickler; ärgerlich sind die nimmermüden Vorbeter einer naseweisen "Bewegung" mit ihren gebetsmühlenartig vorgetragenen Ideologien "freien Wissens". Die wollen (und brauchen!) die Zäune, so wie alle Ideologen. --Felistoria (Diskussion) 00:04, 7. Okt. 2014 (CEST)Beantworten
Ich habs jetzt zwei Mal gelesen. Trotzdem nicht den Zusammenhang (mit was?) verstanden..--Hubertl (Diskussion) 00:27, 7. Okt. 2014 (CEST)Beantworten
@Hubertl: du liegst mMn falsch, da "lügt" niemand. Glaub' auch nicht, dass die Developer glücklich sind, wenn sie eine wacklige Software einsetzen lassen und zusehen müssen, wie durch "protect" die millionenschweren Sponsoren bei Laune gehalten werden (die natürlich nix zahlen, wenn etwas wackelt...). Analogbeispiele aus dem wirklichen Leben sind schwer zu finden;-) --Felistoria (Diskussion) 00:38, 7. Okt. 2014 (CEST)Beantworten
@Felistoria:: Sie lügen uns bezüglich ihrer Ziele an. Und da sind auch die Developer nur Werkzeuge. Nur haben die im Gegensatz zu freiwilligen Wikipedianern keine Wahl, die müssen mitspielen. Oder kündigen. Aber die haben einen Job, keine Überzeugung.--Hubertl (Diskussion) 03:12, 7. Okt. 2014 (CEST)Beantworten

Ich sehe hier (mal wieder) ein Kommunikations- und Empathie-Defizit auf Seiten der WMF: Der Aufwasch, den der Superprotect vor nicht einmal zwei Monaten hier in der deutschsprachigen WP ausgelöst hat, sollte in San Franzisco niemandem entgangen sein. Wenn doch, ist schon das ein massives Kommunikationsproblem. Wir haben ihnen unsere Empörung ja über so ziemlich jeden verfügbaren Kanal, in fast allen verfügbaren Lautstärken mitgeteilt. Und vor diesem Hintergrund wurde ohne jede Rücksprache, Ankündigung, oder Hinweis auf den in WP-de viel gelesenen Seiten ausgerechnet der Datensatz zu Deutschland mit Superprotect geschützt. Das klingt fast schon nach Satire.
Mit einer simplen Kurzmeldung im Kurier hätte man der Aktion die Spitze nehmen können. Zusätzlich man bei den üblichen verdächtigen deutschsprachigen Admins das informative Einverständnis einholen können. Niemandem wäre ein Zacken aus der Krone gefallen. Es hätte der Auftakt zu einer Auflösung der weiter schwelenden Superprotect-Krise sein können. Leider sind offenbar diese Schritte unterblieben. So transportiert ein technischer Vorgang einen mehr als schalen Beigeschmack.
Deutlicher kann man fehlendes Einfühlungsvermögen eigentlich kaum demonstrieren. Oder ist es fehlender Einfühlungswille? Beides wirft ein schräges Licht auf die Versprechen zur Besserung von vor einem Monat. Wenn ich daran denke, dass mit Flow, VisualEditor v2, und Winter die richtig dicken Brocken uns noch bevor stehen, wird mir ganz anders. Denke, das ist eine Rückmeldung bei Lila und/oder Jimmy Wales wert.---<)kmk(>- (Diskussion) 01:26, 7. Okt. 2014 (CEST)Beantworten

Wenn ein Admin meint, trollmäßig in einer Seite herumzupfuschen zu müssen, muss er sich nicht wundern, wenn sie vor seinem Zugriff geschützt wird und dafür Superprotect eingesetzt. Der Seitenvollschutz zum Verhindern von Editwars wird von Admins gegenüber normalen Wikipedia-Benutzern täglich eingesetzt. Bisher hat dagegen noch niemand protestiert. Superprotect ist auch nichts anderes. Warum also die Aufregung? Weil jetzt einmal die privilegierte Benutzergruppe der Admins ihre Grenzen aufgezeigt bekommmt? --GDEA (Diskussion) 01:43, 7. Okt. 2014 (CEST)Beantworten
Hu? Lies nochmal den Project-Chat zur hier diskutierten Anwendung des Superprotects. Von erfolgten Admin-Edits ist da weit und breit nichts zu sehen, ebenso nicht von Editwars. Vielmehr war das eine reine Präventivmaßnahme für den theoretisch denkbaren Fall dass jemand auf die Idee kommen könnte, die aus technischen Gründen rückgängig gemachten Änderungen erneut zu tätigen. Man kann daran ablesen, wie niedrig die Schwelle zum Einsatz des Superprotects bereits jetzt ist.---<)kmk(>- (Diskussion) 03:20, 7. Okt. 2014 (CEST)Beantworten
Nochmal zum mitschreiben: es geht darum, daß Admins von der Community und damit demokratisch, Superprotectoren von der Foundation und damit letztlich von Niemandem, legitimiert sind. Marcus Cyron Reden 01:54, 7. Okt. 2014 (CEST)Beantworten
Sie sind vom Verein Wikimedia Foundation legitimiert, der die Wikipedia betreibt und die Spendengelder verwaltet. Die ersten Admins wie Magnus Manske wurden übrigens auch eingesetzt und nicht von der Community gewählt. --GDEA (Diskussion) 02:22, 7. Okt. 2014 (CEST)Beantworten
Ohne Magnus Manske würde es all das hier nicht geben, also spare dir diesen Blödsinn! Er hat die Software erst geschrieben. Es war nur naheliegend, daß er auch als Erster die Knöpfe bekommt - er hat sie geschaffen! Bis heute hat er auch nichts getan, was auch nur annähernd negativ ausgelegt werden könnte. Also spare dir doch bitte das pinkeln ans Bein dieses unglaublich verdienten Mannes! Marcus Cyron Reden 12:49, 7. Okt. 2014 (CEST)Beantworten
Komm, troll dich! Oder spiel einfach woanders.--Hubertl (Diskussion) 03:07, 7. Okt. 2014 (CEST)Beantworten
Wikipedia ist eine Demokratie? Seit wann das denn? -- - Majo Senf - Mitteilungen an mich bewerte mich 03:12, 7. Okt. 2014 (CEST)Beantworten
In einer Demokratie gibt es regelmäßige Wahlen. Interessant sind in diesem Zusammenhang die 2003 mit 5:0 Wikipedia:Adminkandidaturen/Archiv/2003#Diskussion_zu_Head 2004 mit 5:1 [1], 14:0 Wikipedia:Adminkandidaturen/Archiv/2004-1#Benutzer:Hafenbar, 28:0 Wikipedia:Adminkandidaturen/Archiv/2004-1#Benutzer:Hadhuey, 28:0 Wikipedia:Adminkandidaturen/Archiv/2004-1#Benutzer:Raymond, 28:4 [2], 36:3 [[3]], 47:3 Wikipedia:Adminkandidaturen/Archiv/2004-1#Hoch_auf_einem_Baum, 54:1 [[4]], 62:3 [5] 64:1 [6] und 73:1 [7] Stimmen gewählte Admins, die sich nie einer Wiederwahl gestellt haben. Das scheint aber niemanden zu stören. --GDEA (Diskussion) 03:18, 7. Okt. 2014 (CEST)Beantworten
Was beim Thema Superprotect auch immer wieder faszinierend ist, ist dass die großen Demokratie- und Freiheitsstreiter in eigener Sache sich sofort mit einem "Diktator" gemein machen - wenn der bloß die anderen (hier vermeintlich bloß die Admins) unterdrückt. In den Zusammenhang passt auch gut der Tonfall des Kurierartikels: Weil man selbst das Superprotect-Recht voll knorke findet, sind natürlich alle mit gegenteiliger Ansicht idiotische Bedenkenträger, die in epischer Breite lächerlich gemacht werden müssen. Egal was das Thema ist, es meint halt jeder gleich, sein persönliches Süppchen kochen zu müssen. --Magiers (Diskussion) 08:22, 7. Okt. 2014 (CEST)Beantworten
Pajz ist doch selbst Admin. Wie kann der "bloß die anderen (hier vermeintlich bloß die Admins) unterdrückt" sehen? Und von "voll knorke" hatte er im August an der von Dir verlinkten Stelle auch nicht geschrieben, sondern in seinem ersten Satz hieß es "Ich sehe erachte das neue Benutzerrecht zwar nach meinem Kenntnisstand für unnötig". Ich finde jedenfalls den Kurier-Artikel ganz amüsant. Und von wegen "mit Diktator gemein machen": Das kann man umgekehrt aber ähnlich sagen, siehe [8] (oberster dort geänderter Abschnitt). Diejenigen, die von einer Einschränkung von Rechten nicht persönlich betroffen sind, haben oft leicht reden. --Grip99 03:17, 12. Okt. 2014 (CEST)Beantworten

Ich erinnere mich noch gut an die Zeiten, als stundenlang ganze Wikipedias komplett gesperrt waren und nicht bearbeitbar waren. Weil irgendwo ein Bug war und die Entwickler es für das Beste hielten, gleich mal den ganzen Betrieb anzuhalten. Das war noch die gute alte Zeit, da war noch Friede, Freude, Eierkuchen. Heute herscht Krieg in der Wikipedia. Und ein paar kriegslüsterne Wikifanten schießen ihre Holzpfeile auf die Mauern der WMF. Viel Spaß dabei ihr Deppen. Liesel 10:03, 7. Okt. 2014 (CEST)Beantworten

Holzpfeile oder net, was ich net versteh, is, daß es überhaupt möglich is, daß ein Eintrag in einem Wikidata-Item es verhindert, daß eine WP-Seite, in der dieses Wikidata-Item nur verlinkt ist, überhaupt bearbeitet zu werden. Das sieht mir nach einer doppelten Sicherheitslücke aus. Echt krass, um's mit Lanz zu sagen. --Matthiasb – Vandale am Werk™ (CallMyCenter) 10:36, 7. Okt. 2014 (CEST)Beantworten
@Liesel:: Offenbar kannst du wirklich nicht die einfachsten Dinge auseinanderhalten. Ich frag mich wirklich, wie einfach du gestrickt bist, aber so tust als ob du den Durchblick hättest. Entwicklung ist eine Sache, Kontrolle der Entwickler über das Wikiversum als System die andere. Ganz offenbar hast du noch nie ein größeres kommerzielles Projekt geleitet und umgesetzt, geschweige denn selbst mit einer Reihe von Programmierern durchgeführt.--Hubertl (Diskussion) 11:34, 7. Okt. 2014 (CEST)Beantworten

Hubertl, was ich mache geht dich einen feuchten Kehrricht an. Ich bin ja kein arrogantes Wiener Würstchen, das meint die Weisheit mit Löffeln gefressen zu haben und auf diese Einbildung auch noch stolz ist. Klar kannst du auch die Community entscheiden lassen, was sie machen will und was nicht. Nur wirst du irgendwann keine gescheiten Programmierer mehr finden, die tage- und wochenlang arbeiten, nur damit dann irgendso ein hirnschissiger Depp angerannt kommt und meint: "Deine Arbeit will ich nicht." Das wäre ungefähr so, als würde ich jetzt sagen, also die Artikel dieses Hubertl sind totaler Blödsinn und lösche sie einfach. Das Problem ist nicht, das auch von den Programmierern Mist entwickelt wird. Das Problem ist, dass die Community schon längst in dieser Hinsicht mehr heterogen denkt. Die einen lehnen jeglichen Fortschritt ab und wollen eine Wikipedia auf dem Stand von 2005, während andere selbst das jetzige noch zu gestrig ist. Du kannst zwar tolle Meinungsbilder und sonstwas machen, wenn aber die Meute angeführt von irgendeinem lautstarkem Krawallmacher durchs Projekt rennt, dann kannst du deine ganzes Community-Gedöns vergessen.
Und irgendwann sagt dann auch der letzte Programmierer, der auch will, dass seine Arbeit zum laufen kommt: "Tschüß". Dann darfst du deine Arbeit ruhig Skriptkiddies überlassen, die sich gegenseitig kontrollieren und wo man hoffen darf, dass die Bugs nicht die ganze Seite abschiessen. Liesel 11:51, 7. Okt. 2014 (CEST)Beantworten

In der offenen Software WikiBase und MediaWiki ist vieles möglich. So könnte auch ein vandalierender Admin mit entsprechenden Kenntnissen entsprechenden Schadcode in der common.js unterbringen. Und das die Software angesichts der vielen mitfrickelnden Kiddies und der wenigen Kontrolleure relativ wenige Bugs hat ist schon gut. Aber wenn es nach einigen geht, soll auch die Kontrolle von neuem Code aus den Händen der Foundation genommen werden und irgendwelchen Freiwilligen überlassen werden. Na dann gute Nacht. Liesel 10:46, 7. Okt. 2014 (CEST)Beantworten

Ich verstehe das Theater überhaupt nicht mehr. Der Schutz wurde hier eingesetzt um weiteren Schaden zu verhindern. Ich weiß nicht, wem jetzt ein Zacken aus der Krone fällt, wenn dieses eine Objekt mit gutem Grund für eine gewisse Zeit nicht zu bearbeiten ist und sicherlich hat das Problem auch was damit zu tun, was in diesem Objekt schon alles von Usern rumgemurkst wurde. Und selbstverständlich hat die Foundation das letzte Wort bezüglich der Software, wie auch jeder Serverbetreiber bei seinen eigenen Servern den Stecker ziehen kann. Ich sähe es jedenfalls nicht als Fortschritt an, wenn die Cummunity jetzt plötzlich die Softwareentwicklung selber in die Hand nehemen wollte und bei jeder neuen Version erst mal eine weltweite Diskussion einsetzen müsste, so dass keine Neuerung global eingeführt werden kann, bevor nicht 1 Million Nutzer und alle 800 Projekte einstimmig ihr OK gegeben haben. Eine solche Vorgehensweise wäre der absolute administrative Overkill und brächte es mit sich, dass irgendeine kleine Kommuity in der uigurischen Wiktionary die weitere Softwarentwicklung verhindern kann. Es ist nun mal nicht gut, wenn jeder bei allem mehr oder weniger qualifiziert mitreden will oder muss.--Giftzwerg 88 (Diskussion) 11:21, 7. Okt. 2014 (CEST)Beantworten
Auch du, @Giftzwerg 88:: Du kannst zwar scheinbar alles aufzählen, was es so gibt, aber auf die Idee zu kommen, dass hinter dieser Vorgangsweise ein ganz klares Konzept steht (ich habe es oben beschrieben), was nichts mit dem zu tun hat, was du hier anführst, das ist dir offenbar zu hoch. Man hat zwei Möglichkeiten, den Ausblick aus dem Tunnel zu beschreiben: Wenn man drinnen ist, oder wenn man ihn gerade verlässt. Wie so viele Programmierer (oder die, die sich dafür halten), scheinst du mitten im Tunnel zu sein und kannst dir nicht vorstellen, was dich erwartet, wenn du mal den Tunnel verlässt.--Hubertl (Diskussion) 11:34, 7. Okt. 2014 (CEST)Beantworten
Na gut, lassen wir das mit dem Superprotect und nehmen halt in Kauf, dass die Server wegen einer gut gemeinten Aktion komplett abstürzen. Wäre ja nicht das erste mal. Wie du vielleicht weißt ist Wikidata in vielerlei Hinsicht Neuland und die bestehenden Technologien sind nicht in genügendem Maß skalierbar, ein Problem, das man anfangs nicht erkannt hat, so dass die Programmierer im laufenden Betrieb die Software in vielen Teilen neu schreiben müssen. Aber macht nichts, das machen in Zukunft die User selber.--Giftzwerg 88 (Diskussion) 12:38, 7. Okt. 2014 (CEST)Beantworten

Vergiß es Giftzwerg88, wer in seinem eignen Verschwörungstheorie sitzt, dem ist nicht mehr zu helfen. Für die ganzen Hubertl dieser Wikipedia ist die WMF, das absolut Böse, dass unter allen Umständen vernichtet werden muss. Erst wenn die WMF restlos beseitigt ist, brechen dann die wahrhaft himmlisch Zeiten an. Liesel 13:09, 7. Okt. 2014 (CEST)Beantworten

Ich seh schon die User in Zukunft selber mit der Sammelbüchse in Fußgängerzonen unterwegs, damit der Server der deutschen Wikipedia nächsten Monat auch wieder seinen Strom bekommt. Wir könnten auch auf die MWDE ganz verzichten und einfach den Nutzern eine quartalsweise Nutzungsgebühr aufdrücken. Drei Monat editieren = 5 Euro, ein Jahr 15 Euro. Auf diese Weise würde man endlich mal so richtig von Benutzern profitieren, die hunderte von Socken anlegen und falls ein Unternehmen gegen einen User klagt wegen ein paar missliebiger Edits mit hunderttauseneden von Euro Schadensersatz brauchst du auch eine Rechtsschutzversicherung, aber die hat ja eh jeder. Bearbeitungen von IP hätten aber dann leider in diesem Finanzierungsmodell keinen Platz mehr. Wir müssten dann noch klären, ob gesperrte Benutzer wieder einen Teil der Beiträge zurückbekommen. Wir sollten solche Alternativen ohne Furcht diskutieren. Eine Wikipedia, ganz frei von den Gängelungen der WMF, aber auch ganz frei von finanziellen Mitteln, ganz ohne Spendenbanner: What a wonderful world. --Giftzwerg 88 (Diskussion) 13:23, 7. Okt. 2014 (CEST)Beantworten

Mich stört, dass die Programmierer immer so hingestellt werden, als wären sie die letzten Deppen. MediaWiki ist wie die Wikipedia ein Produkt von Freiwilligenarbeit. Ist die Wikipedia perfekt? Gibt es dort nie Fehler und falsche Formatierungen, die Artikel kaputtmachen? Oder falsche Informationen? Und kann man deshalb die Autoren als bescheuert und unfähig bezeichnen? Eher nicht. Aber die Programmierer mit ihrem Teufelszeug, die müssen natürlich selbst on-the-fly einwandfreie Software abliefern, da muss alles sofort sitzen. Und wenn nicht, sind es eben Idioten. Tolle Sache. Und dann wird gemeckert, wenn Tools nicht mehr geflegt werden oder die eigene Anfrage auf WP:B/A unbeantwortet bleibt. Ihr glaubt gar nicht, was damit manchmal für ein Aufwand verbunden ist. Aber liefern müssen sie. IW 14:34, 7. Okt. 2014 (CEST)Beantworten

Wieso stört dich das, dass Programmierer so hingestellt werden, als wären sie die letzten Deppen? Seit der Aktion mit dem Visual Editor ff. muss man sie gar nicht hinstellen wie die letzten Deppen. Sie stellen sich da schon alleine hin. Oder meinst du ernsthaft, dass es gut ist, wenn man Programmierer über ihre Tätigkeit als Programmierer hinaus auch noch für ihre Meinung zu bezahlen hat? Hast du @Inkowik: je gesehen, dass ich einen der freiwilligen Programmierer hier jemals angegriffen hätte? Mir ist völlig klar, was sie leisten. Interessanterweise sind es Dinge, die man braucht. Wirklich braucht. Die - wohl auch den reduzierten Möglichlkeiten geschuldet - erstaunlich kreativ sind.
Aber was in den letzten zwei Jahren von den bezahlten Leuten der Foundation gekommen ist, das würdest wohl nicht einmal du als Alpha-Version bezeichnen. Und ich weiß sehr wohl, was für ein Aufwand mit Programmierung verbunden ist, nur so nebenbei. Brauchen wir einen VS oder einen MediaViewer? Möglicherweise schon, aber nicht das, was abgeliefert wurde. Warum ist der MV aktuell einigermaßen (aber auch nur einigermaßen) annehmbar? Weil Leute wie ich gemotzt haben. Und zwar massiv. Bis heute ist es nicht möglich, einen anständigen Uploadvorgang auf Commons hinzubekommen. Das interessiert niemanden in der Foundation. Das ist etwas, was im Prinzip etwas für Anfänger wäre. Wenn auch eine Größenordnung zu viel. Aber der Aufwand ist nicht wirklich schwierig. Das und noch ein paar andere Sachen wären wirklich dringend. Dir ist hoffentlich auch klar, dass in all diese Projekte Millionen reinfließen. Aber kaum etwas sinnvolles heraus. Deshalb auch meine Bezeichnung, dass ich meine, es mehr mit einer geschützten Werkstätte zu tun zu haben als einer tatsächlich schlagkräftigen Softwareschmiede. Wie man es sich von einem Unternehmen dieser Größenordnung erwarten müsste.
--Hubertl (Diskussion) 16:15, 7. Okt. 2014 (CEST)Beantworten
Mir geht es an dieser Stelle nicht um Medienbetrachter oder VisualEditor, sondern den Bug, der zum Einsatz des Superschutzes geführt hat. Du stimmst mir sicherlich dahingehend zu, dass Bugs in Softwareprojekten, vor allem in dieser Größenordnung, ganz normal sind. Daher finde ich es umso schlimmer, wenn den Programmierern hier vorgeworfen wird, zu blöd zu sein, um richtige Software zu schaffen. Das sind auch nur Menschen, die eben Fehler machen, und sich hier freiwillig engagieren und so etwas wie MediaWiki erschaffen. Dass einige jüngst angegangene Projekte in die Hose gegangen sind, liegt meiner Meinung nach nicht an ihnen. Dass der Medienbetrachter inzwischen besser und fehlerfreier ist als vorher, das hat man ihnen zu verdanken. Dass jeden Monat mehrere kleine, aber sinnvolle und hilfreiche Softwareänderungen livegeschaltet werden, auch. Das merken die Meisten gar nicht.
Es gibt eben nicht „die Programmierer“, es sind viel differenziertere Gruppen innerhalb und außerhalb der WMF, die an Softwareprojekten beteiligt sind. Dann trotzdem auf „die Programmierer“ als unfähigen Haufen zu schimpfen, tut einigen großes Unrecht.
Übrigens war mein Beitrag überhaupt nicht auf dich bezogen. Den Auslöser für meine Wortmeldung bildeten andere weiter oben in diesem Abschnitt. Gruß, IW 17:34, 7. Okt. 2014 (CEST)Beantworten
@IW: Du unterliegst gerade einem großen Irrtum. Die Programmierer, die für die WMF arbeiten, sind keine wohltätigen Helfer, die „sich hier freiwillig engagieren“. Im Gegenteil: WMF gibt mehrere Millionen Dollar für diese Programmierer aus. Vor einigen Wochen hatte ich die Zahl mal in der Diskussion um Media Viewer und Superprotect gepostet. Was diese Programmierer in letzter Zeit für das viele Geld liefern, ist zum größten Teil katastrophal. Die wirklichen Freiwilligen, nämlich die Wikipedianer, liefern mit vielen kleinen Skripten wesentlich sinnvollere Funktionen, ohne dafür einen Cent zu kassieren. Da braucht man sich nicht zu wundern, wenn das Image der WMF ungefähr genauso niedrig ist wie das der GDL. --MSchnitzler2000 (Diskussion) 18:04, 7. Okt. 2014 (CEST)Beantworten
Siehe meinen vorletzten Absatz. Natürlich gibt es WMF-bezahlte Programmierer. Die dürfen aber genauso mal Fehler machen. Das passiert in jedem Software-Unternehmen, man hört doch alle Tage von Sicherheitslücken in Windows-Systemen, Android oder Onlinediensten. Und gerade komplexe Onlinedienste wie MediaWiki, die unzählige Schnittstellen haben (JS, PHP, SQL, HTTP, HHVM, eigene GUI und API usw.), sind fehleranfällig. Das Problem bei den aktuellen Großprojekten sehe ich eher bei der Ebene eins drüber, denen, die die Entscheidung treffen, was wann wo gemacht und freigeschaltet wird. Das sind sicherlich auch Programmierer. Aber nur eine Teilgruppe. Wenn es bei dieser Teilgruppe Probleme gibt, kann man nicht einfach alle Programmierer (und damit auch die einfachen angestellten und ehrenamtlich tätigen) über einen Kamm scheren und als unfähig bezeichnen. Gruß, IW 18:30, 7. Okt. 2014 (CEST)Beantworten
Dem würde ich ausdrücklich zustimmen. Das Problem bei der WMF sind nicht die einzelnen Programmierer, von denen viele einen durchaus bemühten Eindruck machen. Das Problem ist das Management, das sie in "lost causes" (z.B. aktuell Flow) verheizt und in der Kommunikation mit (sicher nicht immer einfachen) Communitys im Regen stehen lässt. Die Softwareprojekte scheitern nicht an einer miesen Programmierung, sie scheitern an inkompetenten Designvorgaben, die meilenweit weg von den Bedürfnissen der Benutzer in den Projekten sind. Und auch das Superprotect-Recht ist natürlich aus Sicht eines Programmierers die optimale Lösung für ein Problem wie das aktuelle Wikidata-Problem. Das Gespür dafür, eine durch ihre gewaltsame Einführung vorbelastete Maßnahme erst einmal komplett aufs Eis zu legen, bis man einen Konsens über ihren zukünftigen Einsatz oder Nichteinsatz gefunden hat, erwarte ich nicht vom einzelnen Programmierer, sondern von der Leitung der WMF. Und da kann man nur mal um mal aufs Neue feststellen: die Lektion wurde nicht gelernt, an der von oben ausgegebenen Maxime you have to let the Foundation do its work wird nicht gerüttelt. --Magiers (Diskussion) 19:12, 7. Okt. 2014 (CEST)Beantworten

Superprotect-geschützte Seiten sind ja nicht gegen alle Bearbeitungen geschützt, man braucht lediglich dieses Recht, dann sind die Seiten problemlos bearbeitbar, und ohne jede Warnung, wie wir weiter oben lesen durften.
Derzeit haben mindestens 34 Konten dieses Superprotect-Recht. Wie stellt man eigentlich sicher, dass keiner von denen diese kritische Seite bearbeitet? Wikidata-Admins und Stewards kann man da offensichtlich nicht trauen – wie rechtfertigt die Foundation dieses ganz spezielle Vertrauen in diese Staff-Benutzer?
Troubled @sset  Work    Talk    Mail   19:10, 7. Okt. 2014 (CEST)Beantworten

Der Unterschied zwischen weisungsgebundenen Untergebenen und Freiwliligen ist, dass die ersteren etwas zu verlieren haben, nänlich ihren Job, wenn sie Scheiße bauen. --GDEA (Diskussion) 19:30, 7. Okt. 2014 (CEST)Beantworten
Eine einfache Möglichkeit wäre, wenn vollgeschützte Seiten auch für Admins (und alle anderen Anwender mit speziellen Rechten) nicht mehr bearbeitbar wären. Für "Notfälle" wie dringende formalen Aktionen, muss Admin dann den Seitenschutz bewusst kurzfristig aufmachen, edit und technisch eventuell auf das jeweilige Konto limitiert, und dann wieder zumachen - was auch entsprechend protokolliert wäre. Das was jetzt derzeit auf de.wp durch Benutzerverhalten seitens Admins usus ist. Die direkte Verhinderung zur Bearbeitung vollgesperrter Seiten vom Adminkonto würde aber auch die API betreffen und so sicher machen.
Abgesehen davon, ist das (oben erwähnte) Problem, dass besonders auf Wikidata viele Sachen nur noch über die API und zig Scripts ablaufen. Leider nicht nur Gadgets, sondern auch grundsätzliche Aktionen - wikidata ist (seit Anfang an) ohne Scripts und ohne API praktisch nicht zu bedienen. Wikisysteme wie Wikipedia, und womit Wikis auch gross geworden sind, basieren auf der Flexibilität von den frei editierbaren Text bzw. Textfeldern. Bei Wikidata hingegen wird quasi jeder Benutzer zu einem Art "Bot-Betreiber" via Webbrowser, der seine Aktionen mit zig Scripts und via dutzenden API-Calls, die im Hintergrund ausgelöst werden, ausführt. Und diese API-Aktionen die im Hintergrund erfolgen, folgt man den obigen Kommentaren, vielen Wiki-Benutzern offensichtlich auch gar nicht bewusst sind. - wenngleich diese Javascripts formal nicht als Bot bezeichnet werden, technisch ist es aber nicht viel was anderes als wie ein Script was ausserhalb vom Webbrowser abläuft und ident die API bedient, und dann halt als "bot" bezeichnet wird. Und bei Wikidata laufen damit viele Aktionen die von Konten mit Adminrechten ausgelöst werden im Prinzip wie Admin-Bots ab, da bei Mediawiki auch über API die erweiterten Rechte zur Verfügung stehen.
Das führt zu der eher allgemeinen Fragestellung, nämlich die Frage wie man den Inhalt von Wikis versteht:
  1. Will man Wikis die technisch einfach und sehr flexibel sind - simples Textfenster mit frei gestaltbaren Textinhalt und eher simpler Grundsyntax. Das setzt auch Anwender vorraus, die etwas mitdenken und einfache Verhaltensregeln zwischen den Anwendern kennen und respektieren. Da reicht es dann, so wie jetzt bei den vollgesperrten Seiten, ein Warnhinweis für Admins, dass sie eben eine vollgesperrte Seite bearbeiten und das bis auf Ausnahmefälle eher sein lassen sollten.
  2. Will man eher strukturierte Daten mit Wikis erfassen. Zum Erhalt der Datenintegrität und damit es möglichst gut "maschinenlesbar" ist, muss möglichst jede Individualität des Benutzers durch "intelligente" Scripts kontrolliert, bewertet und in kontrollierte Bahnen gelenkt werden. Und es muss, wie bei Wikidata wo es gar keine Möglichkeit zum direkten Bearbeiten des Quelltextes mehr gibt, für jede erdenkliche Funktion eine spezielle Programmfunktion programmiert werden (bei Wikidata oft als Javascript mit eigener "API-Anschlussfunktion") - samt entsprechend vielen Kombinationen, Fehlermöglichkeiten und deutlich weniger Flexibilität zu Abweichungen.
Der konkrete Anlassfall vom Superprotect ist eher wenig interessant. Interessanter sind da schon eher das Spannungsfeld zwischen diesen grundsätzlichen Entwicklungsrichtungen das zum Superprotect führte, wie in Punkten 1. und 2. grob umrissen. Und was in den diversen Entwicklungen rund um VE, MV und Co zum Vorschein kommt und sich bei Flow deutlich abzeichnet, ist eine Entwicklung der Wikipedia Richtung Punkt 2. Was bei Wikidata gut und auch notwendig sein mag, mag als grundsätzliche Richtung bei Wikipedia nicht so gut sein.--wdwd (Diskussion) 23:26, 7. Okt. 2014 (CEST)Beantworten
Superprotest

Ich hab mir mal erlaubt, meine Haltung - natürlich komplett anonym - zu veranschaulichen. --Frank C. Müller (Diskussion) 14:57, 11. Okt. 2014 (CEST)Beantworten

Da hat also jemand bei der Programmierung von WIKIDATA in erheblichem Ausmaß geschlampt und liefert damit die Rechtfertigung für vorbeugende Maßnahmen? Lasst uns dieses Jahr das Banner ausschalten und statt dessen für die Welthungerhilfe, Brot für die Welt oder Kampf dem Ebola sammeln. --Eingangskontrolle (Diskussion) 10:27, 14. Okt. 2014 (CEST)Beantworten

Es hat nicht "jemand" geschlampt, es ist viel komplizierter und liegt z. T. auch an unpassenden oder fehlerhaften Benutzereingaben in den Objekten. Vieles was was im Laufe der Entwicklung gut funktioniert, wird später vom DAU ad absurdum geführt, z. B. wenn dieser Buchstaben eingibt statt Zahlen, falsche Datentypen wählt oder sonstwie fehlerhafte Einträge macht. Es gibt nicht an allen Stellen programmiertechnische Zäune und Barrieren. Ein solcher Fehler vom Benutzer kann zum Absturz führen. Wikidata kommt mit fehlerhaften Einträgen nicht klar und stürzt womöglich ab. Bei so "großen" Objekten wie "Deutschland" ist schon das komplette Laden des Textes schwierig, somit auch die Korrektur von Fehlern, wenn Wikidata jedesmal beim Öffnen abstürzt. Wikidata bekommt andauernd neue Funktionen von verschiedenen Programmierern und kein Mensch ist ohne Fehler, somit kann man das nicht einem einzelnen Programmierer in die Schuhe schieben. Es gibt genauso Fehler bei den Usern, die zum Problem beigetragen haben.--Giftzwerg 88 (Diskussion) 22:51, 18. Okt. 2014 (CEST)Beantworten

Fotoworkshop: Systematisch arbeiten mit Lightroom und commonist

Eine Verlinkung zum Workshop wäre praktisch (auch Termin) Danke. --Atamari (Diskussion) 13:55, 10. Okt. 2014 (CEST)Beantworten

Ich suchs mal raus. 7.-9. November bei Cuxhaven. Nachdem die erste Veranstaltung von WMDE boykottiert wurde, gibts diesen Ersatzworkshop, organisiert von Raboe und Walter. --Pölkky 13:57, 10. Okt. 2014 (CEST) --> https://commons.wikimedia.org/wiki/Commons:Lightroom_2014_in_CUXBeantworten
Kannst du bitte kurz darstellen, was du mit „boykottiert“ meinst und was die offiziellen Gründe für die Nichtdurchführung waren? -- Achim Raschka (Diskussion) 14:00, 10. Okt. 2014 (CEST)Beantworten
Es wurden keine Gründe angegeben. Die Sache wurde einfach ausgesessen, indem keinerlei Reaktion kam. Es kam keine Ablehnung, es kam keine Zusage. Immer, wenn ich nachgehakt habe, ist überhaupt nur etwas passiert, nämlich hinhaltende Worte. Mir wurde vorgeworfen, ich hätte nicht dargelegt, „warum das so teuer“ ist, das ist absolut falsch, da ich schon bei Antragstellung die Kosten dargelegt habe. Die Neuauflage hat jetzt nicht mehr die teure, namhafte Dozentin sondern VHS-Charakter. Kostet aber das Gleiche. Nachzulesen ist das Ganze hier: Wikipedia Diskussion:Förderung/Photoshop Lightroom intensiv --Pölkky 14:08, 10. Okt. 2014 (CEST)Beantworten
(BK - quetsch)
Hallo Pölkky. Es wurde durchaus ein Grund angegeben und das sogar sehr ausführlich, nachzulesen unter obigem Link. Lies ihn doch einfach noch mal. Vielleicht erkennst du ja dann, dass dein sehr teures Projekt vor dem Hintergrund der Teilnehmerbedürfnisse nur unzureichend begründet wurde. Unschlagbar die Begründung (sinngemäß) "Damit ich aus 150 Kilometern Entfernung Bagdad nachts aus dem Flugzeug fotografieren kann.".
Im übrigen geht es hier nicht um VHS-Niveau, sondern um das eines Unternehmen, das Fachleute wie Grafiker und Fotografen offiziell für Adobe zertifiziert. Bei genauem Nachrechnen wäre dir auch aufgefallen, dass ein Kurs, der pro Kopf knapp 464 statt 700 Euro kostet, eben nicht "das Gleiche" kostet. Wir haben getan, was bei solchen Angeboten obligatorisch ist und du konsequent verweigertest: sinnvoll Alternativangebote einholen. Wichtig außerdem: Ralf Boesch trägt auch dafür Sorge, das das Gelernte aktiv weitergegeben wird an andere Fotografen, etwas sehr wichtiges, was du nur tun wolltest, wenn wir dich dafür bei deinem Arbeitgeber bezahlen. Liebe Grüße, Denis Barthel (WMDE) (Diskussion) 15:15, 10. Okt. 2014 (CEST)Beantworten
P.S.: Ich habe hier nur geschrieben, um deinem permanenten öffentlichen Nachtreten, das du schon bis hin zum Edit-War auf der Förderseite und Löschanträgen getrieben hast, etwas entgegenzusetzen. Ich werde mich nicht erneut in eine beleidigende Endlosdiskussion mit dir ziehen lassen. Gruß, Denis Barthel (WMDE) (Diskussion) 15:15, 10. Okt. 2014 (CEST)Beantworten
Warum hast du die Kommunikation verweigert statt einfach nur abzusagen? Warum kommt die (sorry, so empfinde ich es) dämliche Frage "warum ist das so teuer?", obwohl ich genau diese frage längst beantwortet habe? Klipp und klar "uns ist das zu teuer" wäre ehrlich gewesen aber das hat bis heute niemand gesagt. Mit so einer ehrlichen Antwort hätte ich nicht das geringste Problem gehabt. Aber nein, statt dessen wird verzögert und herumgeeiert. Auf der verlinkten Seite ist die Kommunikation dargelegt. Auch nach meinem Ausstieg hast du auf die Rettungsversuche von Stepro dadurch reagiert, daß du eben nichts getan hast. Das gleiche Muster wie bei der WikiDACH, Aussitzen durch Nichtstun und den schwarzen Peter dann weiterschieben. Und wenn du Behauptungen aufstellst, dann reiße sie nicht aus dem Zusammenhang. Wer hat denn schon so viel Wissen weitergegeben wie ich? Dieses Adobe-Zertifikat habe ich übrigens auch. --Pölkky 18:12, 10. Okt. 2014 (CEST) PS: das mit den Alternativangeboten ist eine glatte Lüge, die habe ich euch 8 Stunden nach der Bitte darum geschickt. Danach ist erstmal 2 Wochen von eurer Seite überhaupt nichts passiert.Beantworten
Schade, das mit dem Termin klappt nicht. Terminkonflikt, zu einem anderen Foto-Workshop. --Atamari (Diskussion) 14:21, 10. Okt. 2014 (CEST)Beantworten

Warum muss ein Fotoworkshop für proprietäre Software (die noch nicht mal für Linux verfügbar ist) veranstaltet werden, wenn auch Open-Source-Alternativen wie Gimp zur Verfügung stehen? Solche Workshops können ja gerne privat veranstaltet werden, eine Enzyklopädie, die freies Wissen fördert, sollte dafür aber keine Fördermittel verschwenden.--Sinuhe20 (Diskussion) 16:22, 10. Okt. 2014 (CEST)Beantworten

Weil viele Wiki-Fotografen diese Software benutzen? --Superbass (Diskussion) 17:21, 10. Okt. 2014 (CEST)Beantworten
Die Frage wäre an dieser Stelle ja, ob es tatsächliche Alternativen zu Adobe für Fotografen gibt. Diese Frage wurde in einer Session auf der Con auch gestellt - und die klare Antwort aller Fotografen war ein deutliches Nein. GIMP ist unhandlich und nur teilweise mit Photoshop vergleichbar (was ich aus eigener leidvoller Erfahrung als Laie nach Nutzung beider Programme bestätigen kann - um GIMP zu bedienen muss man deutlich mehr Zeit investieren an vielen Stellen, die bei PS selbsterklärend sind) und für lightroom gibt es gar keine annähernd vergleichbare Alternative. Infofern ist es nachvollziehbar, dass es für Wikipedia-Fotografen Möglichkeiten zur Schulung geben sollte. Hinzu kommt, dass wir uns dem Freien Wissen verschreiben - was nicht zwingend etwas mit Bevorzugung Freier Software zur Generierung dieses Freien Wissens und der freien Inhalte tun haben muss. -- Achim Raschka (Diskussion) 17:38, 10. Okt. 2014 (CEST)Beantworten
Gimp ist keine Alternative. Gimp ist vielleicht mit Photoshop Elements vergleichbar. Allerdings hinkt der Funktionsumfang selbst da immer so 2-3 Jahre hinterher und einige wichtige Dinge wie cmyk-Umwandkung kann keins von beiden. --Pölkky 18:16, 10. Okt. 2014 (CEST)Beantworten
@Achim Raschka:: Dem kann ich nur zustimmen, Lightroom ist zur Zeit ziemlich alternativlos, mit RawTherapee bin ich bislang nicht glücklich geworden, obwohl es damit eine kostenlose Open-Source-Variante gibt. Ich habe deswegen auch mehrere Workshop-Abende - Wikipedia:Wien/WikiDienstag#Lightroom-Workshops Lightroom für Anfänger - in Wien für diesen Herbst geplant. Wer immer will, kann teilnehmen, Termine werden noch bekannt gegeben. Die Kosten (Straßenbahn) übernehmen die Teilnehmer selbst. Allerdings ist eines zu beachten: Ich halte die Arbeit mit Lightroom (und das vielleicht in Kombination mit Photoshop (Adobe-Bundle) für problematisch, wenn jemand keinen leistungsfähigen Standrechner hat - ohne zumindest einen guten Monitor (Lightroom ist erst mit zwei Bildschirmen optimal, ist aber ein nice-to-have). Ein einfaches Notebook mit 4 GB Speicher stößt hier an seine Grenzen, erst recht dessen Bildschirm. Eine sinnvolle Ergänzung für jeden, der mit Bildern arbeitet, wäre ein externer Bildschirm. Kann nie schaden, hat aber immense Vorteile in diesem Zusammenhang. Um 200 Euro ist man mit einem guten, kalibrierfähigen Bildschirm dabei, soferne der externe Bildschirm einigermaßen gut ansteuerbar ist (an der Auflösung für den externen Bildschirm scheitert es manchmal). --Hubertl (Diskussion) 18:22, 10. Okt. 2014 (CEST)Beantworten
(BK) Da muss ich Achim Raschka zustimmen. Die meisten die Fotografieren mit bisschen Ernst betreiben wollen, greifen nun mal zu Adobe Software, weil es nun mal nichts besseres gibt. Denn Photoshop und Lightroom sind nun mal die Werkzeuge für die Fotografen entwickelt wurden (Fotografen sind äusserst selten gute Programmierer). Und deswegen helfen sie den Fotografen auch, sich auf das wesentliche zu konzentrieren (und das ist das Fotografieren nicht das nach bearbeiten). --Bobo11 (Diskussion) 18:29, 10. Okt. 2014 (CEST)Beantworten
(bk) Vor allen Dingen ist Gimp kein verlustfrei arbeitender RAW-Prozessor (wie CameraRAW oder Lightroom), der die Bearbeitungen seperat speichert, so das man bei jeder Nachbearbeitung wieder die bestmögliche Qualität aus der Originaldatei bekommt. Wenn man ein Bild mit Gimp oder Photoshop destruktiv bearbeitet und nach jedem Schritt nur noch das runtergerechnete Ergebniss zur Verfügung hat, verliert man Kontinuierlich Bildinformationen und Qualität.
@Sinuhe20: Angesichts der Tatsache, dass alle RAW-Formate der führenden Kamera-Hersteller proprietär sind und der Nutzerkreis für diese Art von Software doch eher überschaubar ist, bezweifle ich dass es in absehbarer Zeit eine echte OpenSource-Alternative in diesem Bereich geben wird. Den aktuellen OS-Versuch Darktable hab ich bei mir jedenfalls nicht mal zum Laufen bekommen und LightZone sieht auf den ersten Blick auch noch eher rudimentär aus. Proprietäre Alternativen gibt es natürlich ein, allerdings kosten die auch Geld und bieten i.d.R. nicht so ein Komplettpaket wie Adobe.
Von daher: Ja, eine frei Alternative wäre schön, ist aber z.Z. nicht vorhanden. Und da wir ja auch alle Auto oder Bahn fahren, obwohl es keine OpenSource-Autos oder -Züge gibt, sehe ich auch im Bereich Software keinen Grund uns selbst zu kasteien. // Martin K. (Diskussion) 18:42, 10. Okt. 2014 (CEST)Beantworten
Hab gerade mit Schrecken entdeckt: Meine Kamera ist auch proprietär. Wie steh ich denn jetzt da? :-) --Superbass (Diskussion) 19:09, 10. Okt. 2014 (CEST)Beantworten
Erschreckend nicht?! Ich glaub mein Mittag essen heute war auch nicht vollständig open-source... // Martin K. (Diskussion) 19:13, 10. Okt. 2014 (CEST)Beantworten
Ach Du meine Güte, auch das noch - na dann mal "Gute Nacht" MfG Arieswings (Diskussion) 21:01, 10. Okt. 2014 (CEST)Beantworten
Alle nur proprietär? Wie sieht es mit der apertus aus? Hoffentlich werden die Diskussionsseiten bald überarbeitet; Hier den richtigen Strang rauszusuchen ist sehr nervig und zeitaufwendig. 78.35.219.170 22:14, 19. Okt. 2014 (CEST)Beantworten

Ich kenne mich mit Raw unter Gimp nicht gut aus, aber ich vermute, dass es dort auch passende Plugins zu gibt. Für den normalen Anwender, der einfach nur Fotos machen und nachbearbeiten will, reicht Gimp aber vollkommen aus. Bilder organisieren und auf commons laden bekommt man auch mit anderen Tools hin (unter Ubuntu etwa mit Shotwell und Commonist). Falls die Bedienung mit Gimp komplizierter sein sollte als mit Photoshop: nun dazu sind Workshops ja eben da, um nämlich genau diese Hürden zu überwinden. Ich finde es nur schade, wenn von Workshops (und dieser Kurs sollte sich ja gerade an Anfänger richten) bestimmte Personengruppen von vorneherein ausgeschlossen sind, weil sie entweder nicht das richtige Betriebssystem haben oder das nötige Geld, um sich gewisse propritäre Software zu leisten.--Sinuhe20 (Diskussion) 20:52, 10. Okt. 2014 (CEST)Beantworten

@Sinue Srri wenn es glich bisschen hart tönt. Wer sich ein gute digitale Kamera leisten kann/will, der sollte nicht bei den Programmen für die Nachbearbeitung sparen. Und wer sich schon keine RAW-Kamera leisten kann, der braucht eigentlich auch kein Bildbearbeitungsprogramm. Weil beim einen jpg-Bild holst beleuchtungsmässig usw. nicht wirklich was heraus. Kurzum was du da noch gerade richten musst (Das ist jetzt Wortwörtlich zu versehen), kann man schon beim Fotografieren vermeiden. Erst wenn es in die Rohdaten geht brauchst du ein gutes (aktuelles) Programm, und da führt momentan nicht wirklich etwas um Adobe herum. Gimp hab ich angetestet und in der Folge dann Fotoshop besorgt, schlichtweg weil ich mit Photoshop besser zurecht kam. Auch wenn er eine ordentliche Menge Geld gekostet hat, er hat meinen Nerven gegenüber der Installation von GIMP eindeutig geschont. Der Ligthroom ist dagegen ein Schnäppchen (gut ich bekam meinen gratis zu der Kamera), und wird für die meisten vollkommen genügen --Bobo11 (Diskussion) 21:16, 10. Okt. 2014 (CEST)Beantworten
Das eine tun ohne das andere zu lassen? Wenn halt interesse an einem GIMP-WS besteht na dann auf gehts? WMD hat 60 MA (oder noch mehr?) und ein budget von Millionen. Da wird sich ja wohl jmd. finden der einen WS-Raum mieten kann (im zweifel halt den vorhanden in Berlin nehmen) und einen Dozenten verpflichtet. WP:Gimp-Workshop zum anmelden. Fertig ...Sicherlich Post 21:24, 10. Okt. 2014 (CEST) ja, das WMD das organisieren könnte meine ich natürlich ironisch Beantworten
Wenn genügend Interesse an einem Workshop für GIMP besteht, biete ich an, das zu organisieren (ich versuche es). Das sollte aber sinnvollerweise auf Commons angesprochen werden. --Pölkky 21:31, 10. Okt. 2014 (CEST)Beantworten
@Bobo11 Was ist mit RawTherapee, sieht eigentlich auch nach einer guten Alternative aus. Es scheint ja genügend Interessenten für den Lightroom-Workshop zu geben, ich sehe es aber eigentlich sehr skeptisch diesen mit Fördermitteln zu unterstützen. Zumal die dafür beantragten Mittel etwa doppelt so hoch sind, wie die Preise, die WMDE für WLM gesponsert hat. Bei WLM haben hunderte von Nutzer teilgenommen, von dem Workshop profitieren gerade mal 11 Leute. Und um mal die Verhältnismäßigkeit zu verdeutlichen: Der 1. Preis bei WLM ist eine Wochendreise für 300 €, jeder Teilnehmer der sich aber schnell genug für den Workshop eintragen konnte, kann sich nun das Doppelte gönnen. Für mich ist das echt der blanke Hohn.--Sinuhe20 (Diskussion) 00:04, 11. Okt. 2014 (CEST)Beantworten
@Sinuhe20 es gibt etliche günstige Programme die irgend etwas gut können. Aber eben nicht alles was Fotoshop oder Lightroom gut kann. Kurzum du musst andauert Programm wechseln, weil der nächste Schritt das vorherige Programm -das zwar die RAW gut entwickeln konnte- nicht im Griff hat. Das ist das eigentliche Problem, das eben aktuell faktisch nur Adobe ein rund-um-sorglos-Paket bietet. Und JA, die reale Welt ist definitiv ungerecht--Bobo11 (Diskussion) 00:11, 11. Okt. 2014 (CEST)Beantworten
Sinuhe20, der Sinn der Veranstaltungsförderung ist aber nicht, dass die Leute etwas Gutes für sich tun, sondern dass es aus Sicht der Wikimedia-Projekte ein Ergebnis gibt, das den aufgewendeten finanziellen Einsatz rechtfertigt, und, sofern das für solche Projekte bereitstehende Budget knapp ist, es sich um eines der Projekte handelt, die den höchsten Mehrwert generieren. Ist das zu erwartende Ergebnis pro Person 650 Euro wert? Weiß ich nicht. Aber wie viel sich ein einzelner „gönnen“ kann, ist die falsche Bewertungskategorie. — Pajz (Kontakt) 00:55, 11. Okt. 2014 (CEST)Beantworten
und IMO auch die falsche Richtung Sinuhe20 - Wikimedia hat viel geld. Sehr viel. Viel zu viel. ... Es ist also ggf. sinnvoller mehr Geld für bestimmte Projekte zu ziehen als irgendwo zu kürzen. ... Das findet Sicherlich auch WMD gut; dann muss man weniger kreativ sein um zu zeigen, dass das ganze Geld nicht versumpft sondern wirklich sinnvoll dem projekt dient. Also alle glücklich ;) ...Sicherlich Post 01:04, 11. Okt. 2014 (CEST)Beantworten
"Wer sich ein gute digitale Kamera leisten kann/will, der sollte nicht bei den Programmen für die Nachbearbeitung sparen. Und wer sich schon keine RAW-Kamera leisten kann, der braucht eigentlich auch kein Bildbearbeitungsprogramm." - Und wer sich das alles leisten kann, der braucht auch keine Spendengeldern. --Gamma γ 15:59, 12. Okt. 2014 (CEST)Beantworten
Tja, da fragt man sich, was Leute wie ich machen, die eine Kamera geschenkt bekamen, die sie sich allein nicht hätten leisten können. Soll ich sie nun wegwerfen? Muß ich sie Jemandem geben, der sich ein Bildbearbeitungsprogramm leisten könnte? Ja wo ist denn nun die Pflicht, die sich mir als blödem Arsch der ich offenbar bin, auferlegt wird? Zum kotzen diese Reiche-Leute-Diskussion. Hier mal ein Update von der Realität: es gibt Leute, die sich nicht jederzeit alles leisten können! Marcus Cyron Reden 16:33, 12. Okt. 2014 (CEST)Beantworten
Ich erinnere mich an eine Organisation, in der ein Vorstandsmitglied den Angestellten auferlegen wollte, nur Rechner mit einem Freien Betriebssystem zu verwenden. Es stellte sich heraus, dass kein einziges Vorstandsmitglied einen solchen Rechner hatte (dafür aber ein hoher Apple-Anteil). :-) Z. (Diskussion) 13:31, 11. Okt. 2014 (CEST)Beantworten
Die Apple-Fraktion benutzt zumindest einen Unix-Unterbau ;-) (und ja, wenn ich was zu sagen hätte, dürfte die WMDE-GS auch nur OpenSource nutzen…). --DaB. (Diskussion) 21:47, 12. Okt. 2014 (CEST)Beantworten
Das könnte sogar funktionieren, mal abgesehen von der Buchhaltung. Dann müßte man aber Silke gleich eine Horde Mitarbeiter zur Seite stellen ;) --Pölkky 22:08, 12. Okt. 2014 (CEST)Beantworten

Mal als Hintergrund für Leute, die sich mit Bildbearbeitung nicht so auskennen: Diese Bearbeitung und noch extremer im übernächsten Abschnitt das Denkmal wurden mit Photoshop gemacht. Es existiert kein freies Programm, das die erste Bearbeitung durchführen könnte und es existiert überhaupt kein Programm außer Photoshop, das die Bearbeitung am Denkmal machen könnte. --Pölkky 23:19, 12. Okt. 2014 (CEST)Beantworten

Gimp-Version.
Pölkky, das du ein Experte für Bilder bist und das ein gutes Werkzeug und ein geübter Anwender zusammen Wunder bewirken können, ist bekannt. Aber das verunglückte Denkmalbild aufzuhübschen, dazu reicht auch ein einfaches Gimp sowie ein Amateur. Ist vielleicht nicht so perfekt wie deine Version, aber so schlecht das man es nicht verwenden könnte, ist es auch nicht. Also bitte immer dran denken: Echte Profis erreichen auch mit mittelmäßigem Werkzeug klasse Werke; gute (teure) Software alleine macht aus einem Laien noch keinen Profi. --DaB. (Diskussion) 01:25, 13. Okt. 2014 (CEST)Beantworten
Gute Arbeit! Nur sind die Ausreißer in cyan und magenta weiter drin, die CA in den Übergängen Blätter/Himmel auch. Das ist Gemecker auf hohem Niveau, ich weiß. Nicht falsch verstehen. --Pölkky 11:01, 13. Okt. 2014 (CEST)Beantworten
Jetzt stehe ich wohl ziemlich doof da. Ich benutze den proprietären Raw-Konverter von Pentax, der mit den Kameras mitgeliefert wurde. Der erfordert einige Einarbeitung, ja. Weiters ShiftN (Freeware) zum Ausrichten. Dann IrfanView (Freeware) zum Skalieren, zuschneiden. Lange Zeit den uralten Micrografx Picture Publisher (War vor vielen Jahren mal die einzige ernsthafte professionelle Konkurrenz zu Adobe und wurde zuletzt im Aldi für 29 DM <sic!> verscherbelt) zum Ausstempeln von Staubflecken und ähnliche kleine Korrekturen, inzwischen wurschtel ich halt mit dem GIMP (Freeware) herum, was so allmählich auch für meinen Kleinkram recht gut funktioniert. Für Härtefälle habe ich mir vor Jahren, als Kameras noch nicht die heutige Leistungsfähigkeit besaßen, die Home-Version von Neat Image gekauft, um Bilder zu entrauschen. Die kostenlose Demoversion davon ist allerdings so wenig eingeschränkt, daß die für die meisten Fälle ausreicht. Oh, vergessen, mit Geosetter (Freeware) packe ich bei Bedarf die Koordinaten rein. Mehr als die Hälfte meiner Bilder sehen aber praktisch nur den Rawkonverter und IrfanView, ein Drittel muss durch ShiftN hindurch, der kleine Rest benötigt etwas mehr Zuwendung. -- Smial (Diskussion) 01:56, 13. Okt. 2014 (CEST) Ps.: Einige Einzelfälle kommen noch hinzu: Autostitch (Frei verwendbare, aber unter komischer Lizenz stehendes Panoramatool, deshalb inzwischen nicht mehr verwendet) und CombineZ bzw. CombineZP für's Stacking. Freeware latürnich. Mit Hugin komme ich noch nicht zurecht, da wäre ein Kurs mal nett.Beantworten
(reingequetscht, weil Sinnbezug) @Smial: Nur mal so Interessehalber:
Wie lange benötigst Du denn mit dieser Toolsammlung für die Aufbereitung eines Architekturphotos?
Ich selbst habe (trotz Photoshop Lizenz) auch lange mit einem ziemlichen Sammelsurium rumgewurschtelt (PS, NeatImage, Picasa, PTLens, ShiftN, Hugin) dabei aber gemerkt, dass ich nicht nur bei jedem Verarbeitungsschritt Bildqualität verliere (destruktive Bildbearbeitung bei 8Bit), aus Bequemlichkeit meistens auf auf irgendwelche Optimierungen verzichte sondern durch den Wechsel der Tools auch ewig für jedes einzelne Bild brauche. Die Standard-Nachbearbeitung des RAWs einer WLM-Architekturaufnahmen besteht bei mir aus folgenden Schritten:
  • Weißabgleich anpassen
  • Farbkorrektur (meistens Lichter runter um den Himmel wieder sichtbar zu machen)
  • CAs entfernen
  • Ggf. leicht entrauschen
  • Ggf. Staubflecken oder irgendwelche ins Bild ragenden Äste rausretuschieren
  • Geometrie korrigieren (sowohl die Linsenverzeichnung als auch die fluchtenden Linien)
  • Manuelles Geocoding
  • Beschnitt
  • Auflösung, Kompression
  • Bildbeschreibung, Kategorisieren, Upload
Mit Lightroom schaff ich das mittlerweile in wenigen Minuten, ohne einmal das Programm zu wechseln oder meine Festplatte mit irgendwelchen überflüssigen Zwischenversionen zuzumüllen (RAW + Einstellungsdatei reicht). Und da die Bildbearbeitung dabei verlustfrei ist, kann ich jeder Zeit irgendeine Einstellung verändern, ohne die darauf folgenden Schritte nochmal durchführen zu müssen und dieselben Einstellungen problemlos auf mehrere Versionen derselben Aufnahme anwenden. Allein die Zeitersparnis durch diesen optimierten WorkFlow amortisiert bereits kurzfristig die Anschaffung der Software. // Martin K. (Diskussion) 11:52, 13. Okt. 2014 (CEST)Beantworten
Ich bin etwas verwundert. Hier wird vernünftigerweise eine Workshop angeboten, für das Standardtool für einfache Photobearbeitung, Verwaltung der Bilder und klarem Workflow und schon wird sich darüber aufgeregt, da es ein Kauftool ist (ca. 67 € für Studenten/Schüler/Lehrer/VHS ca. 125 € für alle anderen). Ich nutze es leider nicht, da ich Cs6 Extended mit Bridge habe. Es werden tonnenweise Alternativen aufgezeigt - so wie ich es sehe aus meiner Sicht sogar die Besseren aus der free/shareware szene (die meisten gibts leider auch nicht für LINUX). Einen Teil nutze ich auch (Geosetter, exiftool, jpg-illuminator). Aber es ist Fakt das die meisten die Photographieren Lightroom nutzen - der Bedarf dafür somit aus der Community kommt (der erste Kurs ist ja schon voll, wenn ich es richtig sehe). Es wäre toll wenn man einen weiteren Workshop aufziehen würde, der diese hier genannten Tools bekannt macht und erklärt. Wie wäre es mit einem Förderantrag dafür von jemandem der sich berufen dazu fühlt. Die Argumentationskette der Verein hat eh schon zuviel Geld deswegen kann er alles bezahlen, egal wie teuer ist für mich schwachsinnig, aber für eine vernünftige Sache auch entsprechend Geld in die Hand zu nehmen ist sinnvoll. Wer kein Interesse daran hat kann ja problemlos bei seiner Toolchain - Aufruf einer Reihe von unterschiedlichen Tools bleiben - und auch so gute Bilder abliefern. Diese Methode funktioniert ja weiterhin, aber für viele ist es einfacher wenn alles in einer Oberfläche integriert ist.
P.S. 1) Gimp - so gerne ich es mag, ist derzeit keine Alternative - die noch fehlende 16 Bit Unterstützung in vielen Modulen ist aus meiner Sicht ein NoGo. Ich verarbeite meinen Bilder mit dem Adobe Camera Raw Modul (ist dasselben wie in Lightroom) in 16 Bit bis zum Schluß und mache erst dann eine 8 Bit jpg daraus.
P.S. 2) Wer eine gute Bildverwaltung kennt - eine bei der man die Metadaten bei den Bildern speichert, damit man diese bei den externen Festplatten lassen kann - ich suche noch.

--Jörgens.Mi Diskussion 07:28, 13. Okt. 2014 (CEST)Beantworten

Ich denke, daß das Zauberwort bei diesem Lightroom-Workshop „Nachhaltigkeit" ist: Ist ja toll, wenn 11 Fotografen nach dem Kurs mit der Software supergut umgehen können. Aber das sind nur 11. Der Bedarf bzw. die Interessentenschar – Du sagst es ja – ist aber deutlich höher. Ist es sinnvoll und nachhaltig jedesmal 5.000 Euro (oder mehr) in die Hand zu nehmen, um jedesmal nur 11 Leute zu schulen oder ist es sinnvoller und nachhaltiger das nach dem Prinzip „train the trainers" aufzuziehen? Die 11, die das jetzt lernen, können doch ihr Wissen nach dem Workshop weitergeben. Nach dem (teuren) Initial-Workshop haben wir 11 Leute, die wieder 11 Leute schulen können. Das für den High-End-Trainer gesparte Geld kann man doch viel besser für weitere Workshops verwenden mit denen man deutlich mehr als 11 Leute erreicht, oder? --Henriette (Diskussion) 07:56, 13. Okt. 2014 (CEST)Beantworten
Ja, "Nachhaltigkeit" ist bei solchen Veranstaltungen in der Tat wichtig. Dankenswerterweise hat Raboe sich bereiterklärt, bei diesem Workshop auch dafür zu sorgen. Er selbst wird sowohl in Stuttgart bei einem Offenen Editieren wie auch einem Fotoworkshop das Gelernte weitergeben an andere. Ich finde es sehr lobenswert, auf diese Weise über sich selbst hinaus zu denken, das ist aber leider noch nicht selbstverständlich. Gruß, Denis Barthel (WMDE) (Diskussion) 09:08, 13. Okt. 2014 (CEST)Beantworten
Wir fangen sofort damit an. Wir tun einfach. Und es muss nicht wirklich auf hohem Niveau sein, es geht um die Anfangsschritte. Ich werde im Anschluss an die Lightroom-Workshops dann Photoshop-Workshops anbieten, dann Panoramaworkshops. Meine Erfahrung zeigt, dass die Einstiegshürde übersprungen werden muss, dann wird jeder Einzelne für sich entscheiden, ob das, was er da geboten bekommt, für sich selbst weiterentwickelt. Zu glauben, dass durch so ein Seminar jeder Teilnehmer in der Lage ist, es auch anderen weiterzuvermitteln, das ist eher zu positiv gedacht. Auch bin ich der Meinung, dass in einem gemeinsamen Erarbeiten und Lösen eines Problems weit mehr vermittelt wird, als wenn man ein großes Programm abspult. Wichtig ist aber immer, das man sich gerade beim Fotografieren an einem Motiv gemeinsam austauscht. Denn, was falsch in die Kamera gekommen ist, wird auch mit all den Werkzeugen nicht wirklich repariert werden können.--Hubertl (Diskussion) 09:26, 13. Okt. 2014 (CEST)Beantworten
<quetsch> „Zu glauben, dass durch so ein Seminar jeder Teilnehmer in der Lage ist, es auch anderen weiterzuvermitteln, das ist eher zu positiv gedacht." Das ist sogar definitiv zu positiv gedacht, klar! :)) Aber perspektivisch in Form von „wenn Du an so einem Workshop teilnimmst, dann wäre es großartig wenn Du dir auch überlegst wie Du dein dort erworbenes Wissen weitergeben kannst" ist mindestens ein guter Ansatz. Und es spricht ja auch nichts dagegen, daß sich danach 2 oder 3 Leute zusammentun und ihr Wissen den nächsten 10 oder 20 weitervermitteln. Letztendlich gehts ja darum, daß „Freies Wissen" und „Wissen vermitteln" nicht im Edit-Fenster eines WP-Artikels endet, sondern in praktisch allen Bereichen unserer Aktivitäten angewandt werden kann. --Henriette (Diskussion) 10:09, 13. Okt. 2014 (CEST)Beantworten
+1. Denis Barthel (WMDE) (Diskussion) 09:35, 13. Okt. 2014 (CEST)Beantworten
+1. wir habe damit doch schon lange angefangen, Fachleute habe Fotografen geschult und diese haben ihr Wissen an andere Fotografen weitergegeben, das ist das Geheimnis der Fotoworkshops in Nürnberg. Fotografen mit Erfahrungen haben uns Neulinge ihr Workflow und ihre Art der Fotografie beigebracht. Ob nur PS / GIMP /Irfan / Communist oä. ich habe mein Wissen fast ausschließlich auf diesen Kursen gelernt. Tschüß --Ra Boe --watt?? -- 09:54, 13. Okt. 2014 (CEST)Beantworten
Ich glaube sehr wohl, dass 11 Fotografen, die jährlich tausende Bilder, jede Menge Qualitätsbilder und einen hohen Anteil an Einbindungen in Artikel bringen, auch (Edit: ohne weitere Schulungstätigkeiten) etwas Förderung wert sind. --Ailura (Diskussion) 10:46, 13. Okt. 2014 (CEST)Beantworten
Wie kommst Du darauf, daß ein Einzelner einer „Förderung nicht wert ist"?? Es geht darum, daß wertvolles Wissen (was sich selbstverständlich nicht nur in Honoraren für High-End-Trainer messen läßt!) weitergegeben wird. Bzw. wie man das anstellt. Und darüber kann jeder Workshop-Teilnehmer für sich nachdenken und sich coole und schlaue Lösungen ausdenken. Darum gehts. --Henriette (Diskussion) 10:57, 13. Okt. 2014 (CEST)Beantworten
Es war schon immer so, daß wir unser Wissen weitergeben. Bei meinem Antrag wurde ich gefragt, ob ich in "vielen verschiedenen Regionen" eintägige Einführungskurse geben könnte. Das habe ich verneint, weil ich schlicht keinen Urlaub mehr habe, da alles für die Landtags- Bundestags- und Europaparlamente drauf gegangen ist. Jetzt so zu tun, als wenn ich mein Wissen nicht weitergeben möchte....--Pölkky 10:58, 13. Okt. 2014 (CEST)Beantworten
Schöne Sache, wenn man sowas kann und mag. Ich fotografiere. Ich möchte gerne lernen, wie man Lightroom richtig bedient und nicht genötigt werden, deswegen Vorträge zu halten (meinen Bericht werde ich natürlich brav schreiben). --Ailura (Diskussion) 11:04, 13. Okt. 2014 (CEST)Beantworten
Sagt mal: Wollt ihr jetzt unbedingt alles falsch verstehen oder mangelt es euch nur an Phantasie? Wer will denn jemanden „nötigen" Vorträge zu halten?? Wenn man das nicht gut kann oder aus-welchen-Gründen-auch-immer nicht machen möchte: Gut, dann ist das so (gibt viele Leute, denen das so geht). Aber spricht irgendwas dagegen jemandem als Experte und/oder Co-Referent zur Seite zu stehen, der gerne Vorträge hält oder Workshops gibt? Spricht etwas dagegen sich beim nächsten größeren Fotoevent als Auskenner zu outen und sich vor Ort als Gesprächpartner oder hilfreicher Geist anzubieten? Und wieso spricht es gegen eine Wissensweitergabe, wenn man in Mitte 2014(!) keinen Urlaub mehr hat? Hat das Jahr 2015 nicht 52 Wochenenden an denen man sowas planen könnte? --Henriette (Diskussion) 11:21, 13. Okt. 2014 (CEST)Beantworten
Ok, wer lesen kann ist klar im Vorteil: Es steht ausdrücklich auf der Kursseite, dass geschult werden soll, dann müssen wir wohl ohnehin da durch. --Ailura (Diskussion) 11:44, 13. Okt. 2014 (CEST)Beantworten
Das Interesse an freien Bildbearbeitungsprogrammen ist eher mäßg. Hier waren wir zu dritt... Gruß --Nightflyer (Diskussion) 10:12, 13. Okt. 2014 (CEST)Beantworten
Das war ja auch kein reiner Fotoworkshop oder eine monothematische Veranstaltung, die sich ausschließlich mit Bildbearbeitung befasste, sondern ein(!!) Workshop auf der WikiCon auf der parallel zu diesem Workshop noch 6 oder 7 andere Programmbeiträge liefen. Das kannst Du doch nicht ernsthaft generalisieren wollen zu „das Interesse … ist eher mäßig"?! --Henriette (Diskussion) 10:46, 13. Okt. 2014 (CEST)Beantworten
Beim Lightroom-Block waren wir auch nicht nennenswert mehr. --Ailura (Diskussion) 10:48, 13. Okt. 2014 (CEST)Beantworten
Dann muß man darüber nachdenken, warum das so war: Vielleicht ist eine WikiCon der falsche Ort, um solche special interests zu bedienen? Vielleicht gabs nicht genug Werbung der Referenten im Vorfeld? Vielleicht sind 45 oder 90min schlicht zu wenig Zeit (heißt: das Format war nicht ideal)? Vielleicht fanden alle potentiell interessierten Fotografen die parallel dazu laufenden Beiträge viel spannender? --Henriette (Diskussion) 10:57, 13. Okt. 2014 (CEST)Beantworten
Nein es war nicht der falsche Ort, es waren einfach auch viele parallele Veranstaltungen. Ich habe auch dort viel gelernt. Tschüß --Ra Boe --watt?? -- 11:15, 13. Okt. 2014 (CEST)Beantworten
Auch ich habe darüber nachgedacht, wie man diese (ganz speziellen) Kurse abhalten soll. Für mich ist - was dieses Thema betrifft - fraglich, ob man (abgesehen von der Bilderverwaltungsfrage) zB. die Sache nicht dort macht, wo es zB die entsprechende Hardware gibt. Ich bin am Überlegen, wie man zB. in der Wiener Geschäftsstelle zwei gute, große Monitore haben kann (die man ev. vorher auch kalibriert soferne möglich), dazu natürlich noch ein entsprechend rasantes Gerät, mit dem man das ansteuern kann. Notebooks sind definitiv schlecht geeignet dafür. Wenn man nicht gleich eine ordentliche Workstation hat (das bedeutet inkl. 2 Monitoren und Sonstigem ca 1.700-2.000 Euro). Rechnet man aber damit, dass es im Jahr mehr als 5-7 solche Kurzworkshops gibt, dann ist diese Investition gut eingesetzt, denn man kann ja das Gerät auch anderwärtig benutzen, speziell wenn es aktuell gerade einen zusätzlichen Arbeitsplatz in Wien einzurichten gilt (huhu @Raimund Liebert (WMAT):). Bleibt übrig, dass ich mir denke, solche Workshops vorerst als Test bei mir zuhause zu machen, soferne es nicht mehr als 5 Teilnehmer gibt. Aber ziemlich genau diese Menge kristallisiert sich gerade in Wien heraus. Das Vermitteln von Bildbearbeitung ist auch heute noch nicht etwas, was man so einfach am 15"-Notebook macht. Das Bildbearbeiten selbst schon gar nicht. Also, was spricht dagegen, die Sache dort zu machen, wo auch das Equipment steht? Wohl die Frage, ob man seine Wohnung für andere aufsperrt. Und die Bereitschaft der Besucher, sich nicht darüber zu mokieren, dass die Küche nicht aufgeräumt ist und nicht jedes gebrauchte Kaffeehäferl brav im Geschirrspüler steht.--Hubertl (Diskussion) 11:19, 13. Okt. 2014 (CEST)Beantworten
Huhu. --Raimund Liebert (WMAT) (Diskussion) 11:24, 13. Okt. 2014 (CEST)Beantworten
Soso, Kaffeehäferl ;) Ist das jetzt ein Verschreiber oder mein mangelndes Wienerisch? --Pölkky 11:28, 13. Okt. 2014 (CEST)Beantworten
@Pölkkyposkisolisti: Kein Verschreiber, a Kaffeehäferl is a Kaffeehäferl. Du kennst ja eh mein Häferlrepositorium. Unser @Haeferl: würde wohl in den Gschirrspüler passen, nur benötigen wir sie noch anderwärtig, zB zum Erstellen hochqualitativer Fotos.--Hubertl (Diskussion) 11:33, 13. Okt. 2014 (CEST)Beantworten
@Joergens.mi: Ich wende mich nicht gegen die Förderung von Weiterbildung im Fotobereich, habe solche Veranstaltungen in der Vergangenheit schließlich selber mit Genuß und Gewinn (hoffentlich auch für die anderen Teilnehmer) besucht. Geld ist ja genügend da. Ich wollte nur ein wenig relativieren, daß Adobe nach Ansicht einiger anscheinend die einzige Möglichkeit sei, akzeptable Bilder für die Wikipedia bauen zu können. -- Smial (Diskussion) 11:22, 13. Okt. 2014 (CEST) Ein ganz anderes Thema ist die zunehmende Photoshoppisierung der Wikipediabebilderung, die ich inzwischen in Teilen grauenhaft und absolut unenzyklopädisch finde Beantworten
(reinquetsch)@Smial: Was genau meisnt Du mit „Photoshoppisierung“? Filter und Effektorgien sind mir hier bisher eigentlich kaum untergekommen. Deutlich unterbelichtete, farbstichige und schief aufgenommene Bilder, die unbeleckt von jeglicher Art der Bildbearbeitung direkt auf Commons gelandet sind, begegnen mir hingegen dauernd. Und deren enzyklopädischer Nutzen ist auch eher zweifelhaft. // Martin K. (Diskussion) 12:04, 13. Okt. 2014 (CEST)Beantworten
Zum ersten Satz: Hänge dich einfach mal eine Weile bei com:fpc und com:qic rein und betrachte die inzwischen teils völlig absurden Anforderungen dort - sowie die daraus folgenden Bildergebnisse. Zum Rest: Diese Bildunfälle stammen von den sich hier aktiv zeigenden Wikiknipsern? Die anderen erreichst du mit Photoshop-Kursen? -- Smial (Diskussion) 12:37, 13. Okt. 2014 (CEST) , der darauf hinweisen möchte, daß sein ursprünglicher Beitrag sich auf die beiden Bemerkungen von Pölkky und DaBpunkt etwas weiter hier drüber bezog, nicht auf die Cuxhavener veranstaltung) Beantworten

Das ist ja die eine Seite. Andererseits muss man sich schon fragen, ob die geplanten Lehrkräfte wirklich nötig sind. Das ist ungefähr so, als würde man Fahrschule bei Walter Röhrl machen. Klar kann man da was lernen. Aber andererseits, wird ein Großteil des Wissens das so eine Fachkraft hat, gar nicht abgefragt, da die Lernenden noch gar nicht das entsprechende Vorwissen haben. Wozu muss ich als Fahrschüler driften können, wenn es mit dem Anfahren am Berg nicht klappt.
Und ich halte es auch nicht für sinnvoll, nur weil es möglich ist, dass Geld einfach rauszukloppen.
@Smial: Es geht ja vielen "Fotografen" ja auch nicht mehr um die enzyklopädische Dokumentation. Liesel 11:27, 13. Okt. 2014 (CEST)Beantworten

Man sollte auch mal die Kirche im Dorf lassen. Man kann für Lightroom-Workshops auch noch deutlich mehr ausgeben. --Ailura (Diskussion) 11:40, 13. Okt. 2014 (CEST)Beantworten

...sprach der Porsche-Fahrer mit Blick auf einen Veyron... Liesel 11:44, 13. Okt. 2014 (CEST) ..... eben waren wir ncoh bei Walter Röhrl. --Ailura (Diskussion) 11:46, 13. Okt. 2014 (CEST)Beantworten

Den Röhrl kannste vergessen, das habe ich abgesagt, weil vom Fahrerlager keine Reaktion kam. Nun also Golf. Zum (fast) gleichen Preis. --Pölkky 12:13, 13. Okt. 2014 (CEST)Beantworten
dass Geld einfach rauszukloppen. ganz gewiss nicht, es ist ein Basiskurs, die Besucher bekommen komprimiert Wissen und meine Hoffnung ist, das die Teilnehmer ihr erlerntes weitergeben wie z.B. Robin und Martin mir schon gezeigt haben, wie sie arbeiten. Ich konnte auf der WikiCon und in London beobachten wie ein Fotograf am Notebook seine Bilder bearbeitete und gleich hochlud, das ist Walter und mein Ziel für diese Wochenende, schneller, besser, einfacher die Bilder auf Commons zu bekommen. Nicht mehr aber auch nicht weniger. Tschüß --Ra Boe --watt?? -- 11:47, 13. Okt. 2014 (CEST)Beantworten

Das bezog sich jetzt auch nicht auf dich und deinen Antrag. ;) Liesel 11:53, 13. Okt. 2014 (CEST)Beantworten

(BK) Ich weiß nicht, ob wir hier in der Wikipedia wirklich den Fall haben, professionelle Fotografen im Umgang mit einem kommerziellen Werkzeug schulen zu müssen, um auch die letzten Feinheiten der Bildmanipulation zu lernen. Grundlegende Einführungen, auch für unterschiedliche Einstiegsstufen, gibt es bei VHSn auch günstiger, man möge beispielsweise einmal hier in die Suche "Lightroom" eintippen und sich die dort drumherum aufgereihten Angebote zu Gemüte führen. Teilweise gibt es da auch Sachen, die als Bildungsurlaub anerkannt sind - und für die ganze Woche 198 EUR kosten. Natürlich ohne Vollpension. Komme mir bitte keiner mit "billig = taugt nichts", einen der Fotokursleiter an der VHS Unna (leider scheint das Programm derzeit offline zu sein) kenne ich persönlich, und der ist sehr gut in seinem Bereich. Wie gesagt, ich hab nichts generell gegen solche Fortbildungen. Aber man sollte schon abwägen. -- Smial (Diskussion) 12:01, 13. Okt. 2014 (CEST) Gebe zu, daß ich allerdings generell Vorbehalte habe, kommerzielle Platzhirsche auch noch mit Spendengeldern zu pushen, wenn es freie Alternativen gibt, die evtl. nicht in allen Belangen heranreichen, aber für das, was man hier in der WP wirklich benötigt, völlig ausreichend sind. Beantworten
(bk)Natürlich kam man so etwas auch machen, wenn man in einer Stadt lebt, wenn man aber wie z.B. Walter auf den Lande lebt geht es nicht so einfach. ;) Ein anderen Punkt möchte ich hier auch noch anbringen, wir lerne uns besser kennen und können Teams bilden, gleiche Probleme / Fragen gleiche Lösungen. Das ist auch der Grund warum die Fotografen so viele Projekte anbieten, sie kennen sich, vertrauen sich und sind besser vernetzt. Tschüß --Ra Boe --watt?? -- 12:13, 13. Okt. 2014 (CEST)Beantworten
Deshalb schreibe ich ja die ganze Zeit sinngemäß: Man muß abwägen. Und: Ich habe nicht generell etwas gegen solche Förderungen. -- Smial (Diskussion) 12:44, 13. Okt. 2014 (CEST)Beantworten
hab ich auch nicht so wahrgenommen ;) --Ra Boe --watt?? -- 13:25, 13. Okt. 2014 (CEST)Beantworten
Wie man meiner Einlassung wohl entnehmen kannst bin, ich auch eher auf dem Einzeltoolweg unterwegs, unterstütze diesen Workshop aber. Aber man muss sachlich anerkennen, das Lightroom der de facto Standard ist für Workflow und Standardentwicklungen. Und wenn man viele Photographen hat, sollte man die Tools schulen die die meisten benutzen - die anderen dabei aber nicht vergessen. Und ich finde es gut das so etwas angefangen wird. Und da man die Teilnehmer ja auch als Multiplikatoren sieht, sollte man ihnen auch einen qualifizierten Lehrer nehmen. Man bekommt bestimmt auch jemand der das Wochenenden für 400€ insgesamt macht - aber wahrscheinlich ist das das dann auch nur Wert. Neben der Schulung selber, sind zum einen die Pausengespräche mit dem Ausbilder und auch sonst seine Fähigkeiten bei der Beantwortung von Fragen wichtig und da spielt eindeutig dann Qualität und nicht der Preis die Rolle.
Ich wäre auch bereit auf einem der nächsten Nürnbergtreffen (sofern ich Zeit dafür habe)/nächster WikiCon über andere Tools die ich kenne und deren Bedienung zu berichten um auch die andere Fraktion zu unterstützen. Den Hugin-workshop auf einer der Wikicons war sehr hilfreich. --Jörgens.Mi Diskussion 12:07, 13. Okt. 2014 (CEST)Beantworten
Ergänzung: smial. Ich hoffe das auf deiner VHS auch geschult wird wie mit dem neuen Tool von ireas oder dem commonisten die Bilder sinnvoll nach commons geladen werden. Und die Qualität der VHS ind Deutschland ist so schlecht nicht da hast due recht, aber in so einem Kurs sind halt viele Interessen vertreten, hier unsere WP-spezifischen. Ein Vorteil hätte VHS vielleicht, oftmals kann man dem Kursnachweis, die Produkte beim Hersteller zum StudentenPreis erwerben --Jörgens.Mi Diskussion 12:14, 13. Okt. 2014 (CEST)Beantworten
Der Commonist wird offensichtlich nicht von der professionellen Fachkraft erklärt. Wie oben beschrieben, beziehen sich meine Beiträge auf die zwei Absätze von Pölkky und DabPunkt, auf die ich ursprünglich geantwortet hatte. Wann kommt FLOW? (In funktionierend natürlich) -- Smial (Diskussion) 12:42, 13. Okt. 2014 (CEST)Beantworten
Habe ich ja auch nicht gesagt, ist aber Bestandteil des Kurses und ein Beispiel einer Anpassung des Kurses an die Spezifika des Nutzer, das würde auch an der VHS gehen wenn sich zufällig nur Wikipedianer im Kurs befinden (das ist aber nicht der Normalfall). --Jörgens.Mi Diskussion 12:48, 13. Okt. 2014 (CEST)Beantworten
  • Ich bin über die Fotografie an Wikipedia / Commons (und später an die dortiten Qualitätsportale) herangekommen. Ich bin eher autodidaktisch veranlagt, habe mir alle Grundlagen selbst beigebracht und angelesen. Von daher glaube ich ganz gut einschätzen zu können, welche Tools und Prozesse eine lange Einarbeitungszeit benötigen und welche weniger. Die größten Probleme haben mir die etlichen verschiedenen Upload-Möglichkeiten bereitet. Wie beschreibt man Bilder vernünftig, welche Tools nutzt man zur Kategorisierung, was sollen die ganzen Lizenzen, wie gecodiere ich Bilder fürs Wiki etc. Kurzum: Was ist die gängige Praxis zur Beisteuerung von Bildern? Obwohl ich schon länger Bilder hochlade, nutze ich z.B. erst seit einem halben Jahr den VicuñaUploader, weil ich vorher schlicht nicht um die Vorteile wußte - ein Tool, das die Produktivität erheblich steigert. Bei den Wiki-Prozessen und -Tools sehe ich den größten Informationsbedarf, um produktiv(er) mitmachen zu können. Sicherlich kann man individuelle Skills mit Kursen weiter ausbauen, interessant wäre allerdings die Frage, ob die Kurse auf eine bestimmte Software zugeschnitten sein sollen. Gerade in Lightroom kann man sich mit einem guten Buch ohne größere Problem schnell selbst einarbeiten. Photoshop braucht man in 99,9% der Fälle für gute dokumenatarische Wiki-Fotos sicher nicht. Eine Software, die mir hingegen sehr viel Kopfzerbrechen bereitet hat, die schlecht dokumentiert ist und zu der es keine guten Bücher gibt, ist die Panorama-Software Hugin. Inzwischen bin ich begeisterter Hugin-Nutzer, aus meiner Sicht steht diese der kommerziellen Software PtGui in nichts nach - es werden im Kern ja sogar die selben Algorithmen verwendet.
    Insgesamt sollte man überlegen, welche Maßnahmen letztlich die größere Reichweite haben. Ich denke auf Veranstaltungen wie WikiCon etc. ist nur ein verschwindend geringer Anteil der "Hardcore"-Wikipedianer unterwegs sind vermutlich eher Personen aktiv, die ohnehin recht stark in die Wikipedia-Community eingebunden sind. Für monetäre Förderung sollte man aus meiner Sicht eher überlegen, ob man sich professionelle Hilfe zur Erstellung von Bildbearbeitungs-Tutorials holt, die dann in wikifizierter Form zur Verfügung gestellt werden. Vermutlich gibt es solche (Video-)Tutorials schon, nur findet sie keiner. Ich hätte mich zumindest über ein Video-Tutorial zu Hugin und zu effizienten Upload-Möglichkeiten und zur Kategorisierung von Bildern gefreut :) --Tuxyso (Diskussion) 14:50, 13. Okt. 2014 (CEST)Beantworten
Da sprichst du @Tuxyso: was an was auch mir unter den Fingern brennt. Workshops usw. sind gut, nur wenn es danach nichts nachzulesen (oder wie auch immer) gibt, bleibt erstens der Effekt auf die Teilnehmer begrenzt. Und zweites selbst die haben unter Umständen ihre Mühe, das gelehrte um zu setzten. Weil sie keine Repetition des Kursinhaltes machen können, weil nichts vorliegt (Werder Video noch in Papierform). --Bobo11 (Diskussion) 16:15, 13. Okt. 2014 (CEST)Beantworten
Über Hugin haben wir in Nürnberg auch schon gesprochen, falls es zu einem Revival kommen sollte, kann man das sicher wiederholen. --Ailura (Diskussion) 23:37, 13. Okt. 2014 (CEST)Beantworten
Von Maike Jarsetz hätten wir mehr als ausreichendes Videomaterial bekommen. --Pölkky 18:52, 13. Okt. 2014 (CEST)Beantworten
Das wäre genial gewesen. --Jörgens.Mi Diskussion 19:46, 13. Okt. 2014 (CEST)Beantworten
„Ich denke auf Veranstaltungen wie WikiCon etc. ist nur ein verschwindend geringer Anteil der "Hardcore"-Wikipedianer unterwegs.” bekommt von mir den Preis „Fehleinschätzung des Monats" am königsblauen Seidenbändsel mit Troddelborte!! --Henriette (Diskussion) 19:19, 13. Okt. 2014 (CEST)Beantworten
„Ich denke auf Veranstaltungen wie WikiCon etc. ist nur ein verschwindend geringer Anteil der "Hardcore"-Wikipedianer unterwegs.” wie kommst du denn zu dieser wirren Ansicht --Jörgens.Mi Diskussion 19:55, 13. Okt. 2014 (CEST)Beantworten

(EK)

Ich habe oben missverständlch formuliert und kann meine Aussagen auch nicht mit harten Fakten belegen - es war lediglich eine für mich naheliegende Vermutung (s. Formulierungs-Update). Mein Argument sollte im Kern darauf hinzielen, dass ein tolles wikifiziertes Video-Tutorial eine größere Reichweite hat als ein Workshop bei der WikiCon, an dem eine Handvoll Personen teilnehmen wie von einigen Teilnehmern hier berichtet. Workshops gehören natürlich zu solchen Konferenzen dazu und sind sicher sinnvoll - wenn Geld da ist, warum nicht? Ist doch super, wenn es Leute gibt, die die Organisation in die Hand nehmen. Henriette, trotz "Troddelborte" frage ich mich, ob dir belastbare Zahlen vorliegen, die meine Einschätzung widerlegen. Mich würde es interessieren: Habt ihr mal systematisch erhoben, ob die Teilnehmer der Wikicon im Vergleich zu Nicht-Teilnehmern ein anderes Editierverhalten aufweisen? Heavy User Bias? Ich würde vermuten ja. Zumindest bei Stegbauer (2009) finden sich bei seiner Untersuchung zu den Wiki-Treffen Hinweise darauf, dass es nur wenige sich wiederholt Treffenden gibt (239), dass es einen je regional organisierten harten Kern von wenigen sich wiederholt Treffenden gibt (243ff.) und dass Teilnehmer, die noch gar nicht editiert haben, eine Ausnahme auf den Treffen darstellen (247). Zudem konnte Stegbauer nicht nachweisen, dass sich die Teilnahme an Treffen positiv auf das zukünftige Engagement auswirkt (252). Vielleicht gibt es ja noch aktuellere Zahlen. Gerade die Anzahl von sich wiederholt Treffenden dürfte für die direkte Wissensweitergabe und damit für den Impact von Workshops interessant sein. --21:56, 13. Okt. 2014 (CEST)
Solch ein Video-Tutorial halte ich für eine sehr gute Idee, das Geld wäre auf jeden Fall besser angelegt. Und wozu haben wir eigentlich Plattformen wie Wikiversity und Wikibooks? Es gibt mittlerweile so viele technische Möglichkeiten, dass teure Workshops für kleine Personengruppen eigentlich ziemlich überflüssig wirken.--Sinuhe20 (Diskussion) 23:57, 13. Okt. 2014 (CEST)Beantworten
@Tuxyso: „ … frage ich mich, ob dir belastbare Zahlen vorliegen, die meine Einschätzung widerlegen. Mich würde es interessieren: Habt ihr mal systematisch erhoben, ob die Teilnehmer der Wikicon im Vergleich zu Nicht-Teilnehmern ein anderes Editierverhalten aufweisen?” Sagen wir mal so: Es wäre uns ein Leichtes solche Erhebungen anhand der Anmeldungen durchzuführen und beliebig beeindruckende Zahlen zu generieren. Definiere mir mal bitte „anderes Editierverhalten" in nachprüfbaren Parametern und wir können diese Zahlen liefern. Allein: Ich brauche keine Zahlenspielerei um zu wissen, daß die Argumentation mit Stegbauer der nie auf einer WikiCon war und (s)einer Publikation von 2009, als es noch keine WikiCons gab keinerlei Beweiswert hat. Mir reichts, daß ich in der Teilnehmerliste locker 100 der in der de.wp auf allen möglichen Funktionsseiten aktiv(st)en Benutzer finde. Aber bitte: Wenn nur Zahlen Dich überzeugen … --Henriette (Diskussion) 02:25, 14. Okt. 2014 (CEST)Beantworten
@Henriette: "... und beliebig beeindruckende Zahlen zu generieren" - darum geht es bei einer vernünftigen Erhebung freilich nicht. Dass die Zahlen von Stegbauer zu den Treffen alt sind, darauf habe ich oben hingewiesen. Er hat in der Tat in der Hauptsache Stammtische untersucht und ist interessanterweise zu dem Ergebnis gekommen, dass diese für Erstbesucher sogar eher abschreckend sind und die existierenden Beziehungen zwischen den älteren Stammtischbesuchern eher zementieren. Das sieht bei größeren Veranstaltungen wie der WikiCon vielleicht anders aus, man müsste es aber erheben. Was heißt nun abweichendes Edierverhalten? Zunächst wäre zu überlegen, was es bedeutet in einem Jahr aktiv gewesen zu sein. Man könnte z.B. sagen, dass Leute, die im Jahr der Wikicon fünf und mehr Edits gemacht haben, aktiv sind. Jetzt gehst du die Teilnehmerliste der Wikicon durch und rechnest für die Teilnehmer ein paar Kenngrößen zu ihrem Editierverhalten aus. Die einfachste Größe wäre z.B. der Mittelwert (unter Angabe von Konfidenzintervallen, da Mittelwerte bekanntlich wenig Aussagekraft haben). Besser jedoch wäre es, Histogramme zu berechnen, die die Teilnehmer in Editierklassen aufteilen (z.B. 5-10 Edits, 10-50, 100-100, 1000 und mehr). Die gleichen Berechnungen führst du für diejenigen aktiven User durch, die nicht auf der Wikicon waren. Meine Vermutung wäre, dass sich auf der Wikicon im Verhältnis deutlich mehr Heavy User finden als in der restlichen aktiven Wikipedia und deutlich weniger mäßig aktive User als in der restlichen Wikipedia. Freilich kann man das Design noch weiter ausbauen, z.B. unterschiedliche Namensräume anschauen (gibt es z.B. einen Meta-Namensraum-Bias auf der WikiCon etc. etc.). Stegbauer ging es ja mehr um den Grad der Eingebundenheit als um rohes Editierverhalten, auch solche netzwerkförmigen Kenngrößen könnte man sich für die Wikicons anschauen. Bzgl. der wiederholten Wikicon-Besuche könnten Besucherbefragungen durchgeführt werden: "Auf wie vielen Wikicons warst du schon? Willst du wiederkommen?". Ich glaube aber, dass uns Diskussionen über ein mögliches Forschungsdesign zur Untersuchung der WikiCon-Besucher vom ursprünglichen Thema, bei dem es um Fotokurse ging (weswegen ich mich auch überhaupt nur in die Diskussion hier eingschaltet habe), wegführt. Grüße und einen schönen Tag, --Tuxyso (Diskussion) 07:24, 14. Okt. 2014 (CEST)Beantworten
  • Amüsiert habe ich das ganze Gerede hier durchgelesen ... Worum geht es hier denn eigentlich??? Neid!? Missgunst!? Wem etwas nicht passt kann gerne etwas eigenes auf die Beine stellen oder ansonsten die Klappe halten! Der WMDE entscheidet wie das Geld ausgegeben wird. Der CUX-Kurs ist mMn gut angelegtes Geld. Ich selbst habe von solchen Kursen schon viel profitiert und vieles auch schon weitergegeben. Die Diskussion "freie" Software oder Kaufsoftware ist gar keine. Zu Lightroom gibt es gar keine Alternative, alleine schon wegen der Bearbeitung von 16Bit Bildern. Von Mickey-Maus Software habe ich die Schnauze voll. Grüße an alle hier lesenden. --Alchemist-hp (Diskussion) 21:24, 13. Okt. 2014 (CEST)Beantworten
Die nächste Version von Gimp (die schon 2 Jahre in den Startlöchern ist) soll auf jeden Fall 16- und 32-Bit-Unterstützung haben.--Sinuhe20 (Diskussion) 00:23, 14. Okt. 2014 (CEST)Beantworten
Ich finde es bedrückend, sogleich in Neid- und Mißgunst-Schubladen gesteckt zu werden und die Klappe halten zu sollen, nur weil man ein paar Fragen stellt bzw. Anmerkungen macht, von denen sich ausgerechnet der Hauptorganisator der Veranstaltung gar nicht angegriffen fühlt. Offensichtlich aber einen ganzen Schwung gar nicht unmittelbar Betroffener zum Austeilen ermuntert. Der nächste Tropfen. -- Smial (Diskussion) 15:51, 14. Okt. 2014 (CEST)Beantworten

Da kann man ja froh sein, dass hier die "Außer-Mittelformat-ist-alles-Scheiße"-Benutzer noch nicht aufgeschlagen sind. Liesel 15:57, 14. Okt. 2014 (CEST)Beantworten

Wer sich für die Fragen interessiert, ob Lehrveranstaltungen finanziert werden sollen, wie Lehrmaterialien erstellt werden können und wie unfreie Software bewertet werden soll, kann sich übrigens gerne bei der Weiterentwicklung der Förderrichtlinien einbringen oder neue Projektpläne kommentieren. Die Diskussion über einen bereits genehmigten Förderantrag mag zwar auch interessant sein, bringt aber praktisch nicht mehr so viel. Grüße, ireas (Diskussion) 00:06, 14. Okt. 2014 (CEST)Beantworten

Nur mal zur Info: Ich habe meine 106 Fotos ausgesucht, die ich zur Jurysitzung WLM 2014 mitnehme. In den Exif-Daten steht, wenn vorhanden, die verwendete Software.

  1. 38 mal Lightroom
  2. 28 mal kein Exif oder kein Eintrag
  3. 6 mal Photoshop
  4. 5 mal DSC HX 10
  5. 5 mal ACDSee
  6. 5 mal Pentax K3
  7. 4 mal Gimp
  8. 4 mal Zoner
  9. 11 Verschiedene

Irgenwo schrub ich mal über die geringe Beteiligung am Workshop auf der WikiCon. Jetzt versteh ich es besser. Wer gute Bilder abliefern will, hat die entsprechende Software. Dann ist ein Workshop über effektive Benutzung und die Möglichkeiten der Programme auch gerechtfertigt. Gruss --Nightflyer (Diskussion) 21:58, 15. Okt. 2014 (CEST)Beantworten


Gimp -Kurs?

@Sinuhe20: Gimp 2.10 ... über ungelegte Eier brauchen wir uns nicht zu unterhalten! Aber ich wäre der letzte der sich gegen einen Gimp-Kurs sträuben würde. Nimm es doch einfach in die Hand, organisiere eine entsprechende Veranstaltung und ich könnte mir vorstellen auch dabei zu sein. mein Ziel: Kamera-RAW Entwicklung, Weißabgleich, Objektivkorrekturen wie Chromatische Aberration, Verzeichnung/Verzerrung, Vignettierung, Erstellung eines 16 bit Tiffs und zuletzt Umwandlung in JPG und Upload nach Commons. Danke und Gruß --Alchemist-hp (Diskussion) 05:09, 14. Okt. 2014 (CEST)Beantworten

Es ist ja nicht so, das wir nicht schon Gimp Kurse hatten, auf den Fotoworkshop in Nürnberg waren und werden viele verschiedene Workflows gezeigt, wenn sich dafür ein Dozent findet. Wir werden sicher auch wären des Wochenende verschiedene Workflows zeigen, ich werde auf Nachfrage, wie jeder Teilnehmer gerne zeigen wie er arbeitet und das ist in meinen Augen der besondere Vorteil wenn sich eine Gruppe mit einem Fachthema trifft, in den Pausen und selbst nach dem offiziellen Teil sitzen die Leute zusammen und testen. Besonders wenn das Bett nur einen Steinwurf entfernt wartet und er Nachschub an Getränken gesichert ist. Tschüß --Ra Boe --watt?? -- 08:54, 14. Okt. 2014 (CEST)Beantworten
Das Hauptproblem bei Gimp ist (genauso wie bei Photoshop ohne Lightroom oder anderen Standardbildbearbeitungsprogrammen auch), dass die Bildbearbeitung weitestgehend seriel und zumindest teilweise destruktiv erfolgt. D.h. jeder Schritt baut auf dem Ergebnis des vorangegangen Entwicklungsschrittes auf und hat nur noch die Bildinformationen zur Verfügung, die dieser übrig lies. D.h. wenn ich z.B. erst das Bild etwas aufhelle, dann retuschiere und den Weißabgleich korrigiere und danach merke, dass jetzt alles zu hell wirkt, muss ich entweder alles nochmal machen, oder das Risiko eingehen, dass beim Abdunkeln des aufgehellten Bildes unschöne Ränder in den Lichtern entstehen. Natürlich kann man diesen Effekt durch eine 16Bit-Bearbeitung und die Verwendung von Einstellebenen statt gerasterten Effekten minimieren, aber an die Qualität eines (z.B. via Lightroom) direkt aus dem RAW entwickelten Bildes kommt man so einfach nicht ran.
Hinzu kommt das Speicherplatzproblem: Bei mir (EOS 70D | 20 Mpx) bringt ein RAW schon rund 20-30MB auf die Wage.
  • Wenn ich jetzt anfange, dieses mit Gimp oder Photoshop zu bearbeiten, kommen für jeden als 16Bit Tiff oder PSD gespeicherten Zwischenschritt über 100MB dazu. Man kann sich ausrechnen, mit wievielen Bildern man das so machen kann, bis eine Standard Festplatte voll ist.
  • Dieses Problem hat man einfach nicht, wenn man ein ein Programm wie Lightroom verwendet, das die Bilddaten immer aus dem Original-RAW holt und nur die Änderungen in einer XMP-Filialdatei speichert. Diese bringen nämlich selten mehr als 10KB (!) auf die Wage bringt.
Meiner Meinung nach ist neben mangelnden Kenntnissen eine Abneigung gegen die Erstellung zusätzlicher bearbeiter Dateiversionen ein Hauptgrund dafür, dass wir uns hier mit soviel defizitärem, nichtmal rudimentär nachbearbeiten Bildmaterial rumschlagen müssen.
Destruktive Bildbearbeitung ist übrigens auch ein Problem für die Fotowerkstatt. Da wir dort (von wenigen Ausnahmen abgesehen immer nur vorkomprimierte 8Bit JPG-Dateien zur Verfügung haben und etliche Bearbeitungen auf bereits mehrfach bearbeiten und wieder abgespeicherten Versionen aufsetzen, sind die Ergebnisse in der 100% Ansicht häufig ziemlich klotzig und posterisiert. Aus diesem Grund sollte man dringend mal darüber nachdenken, eine Möglichkeit zu schaffen zu jedem Bild eine oder mehrere Quelldateien in beliebigen Formaten einzubinden, die nicht zur Artikeleinbindung sondern nur zur Nachbearbeitung gedacht sind... // Martin K. (Diskussion) 10:30, 14. Okt. 2014 (CEST)Beantworten
Jetzt verstehe ich allmählich die Lightroom-Begeisterung. Gut, wenn die Raw-Entwickler der Platzhirsche die meisten Funktionen nicht eingebaut haben, braucht man wohl Lightroom. Beim Silkypix-Derivat, das Pentax mitliefert, ist ein Großteil der Funktionen schon drin, und die arbeiten latürnich nicht destruktiv, und werden erst angewendet, wenn ich auf den Knopf "Mach jetzt JPG oder TIFF davon" klicke. Oder besser: Den Batch starte, denn bei der eigentlichen "Entwicklung" rechnet das ziemlich lange an jedem Bild herum, jedenfalls auf meiner ollen Rechnermöhre.
Aber das schrub ich ja schon oben, daß die Bilder bei mir nahezu fertig aus dem Raw-Entwickler kommen und danach gewöhnlich nur noch Kleinkram gemacht wird. -- Smial (Diskussion) 15:37, 14. Okt. 2014 (CEST)Beantworten
So sollte es sein. Silkypix befindet sich ja in etwa derselben Preislage wie Lightroom, beherrscht aber (soweit ich das auf die Schnelle überblicken kann) keine Perspektivkorrektur und Retusche. Und auch das Geo-Coding-Modul in Lightroom und natürlich Ireas schickes Commons-Plugin würde ich vermissen.
So, wie ich aktuell mit Lightroom arbeite, brauch ich lokal übrigens nichtmal mehr ein JPG zu speichern. Die fertig bearbeiten, geolokalisierten, beschrieben und kathegorisierten Photos werden direkt aus dem RAW nach Commons exportiert. Das ist schon sehr bequem und gefühlt min. doppelt so schnell wie die Toolchain, die ich vorher verwendet habe. // Martin K. (Diskussion) 16:18, 14. Okt. 2014 (CEST)Beantworten
Das genannten und hier ja mehrfach gelobte Lightroom-Plugin ist (mal wieder) ein Paradebeispiel für das Informationsproblem, auf das ich oben schon mal hingewiesen habe. Ich würde jetzt nicht sagen, dass ich wenig auf Commons unterwegs und ich habe in dem Kurier-Beitrag das erste Mal von diesem Plugin gehört. Solange solche nützlichen Tools (Cat-A-Lot, Vicuna, das Plugin etc.) nicht leichter auffindbar sind und auf einer Seite als Quasi-Standardworkflow angegeben werden, existieren meiner Meinung nach andere Baustellen als die Frage, ob zukünftig nur noch mit 16-Bit-TIFFs vernünftige dokumentarische Bilder zu erstellen sind und welche Software wir dafür benötigen.
Bei aller Begeisterung für die unfangreichen Bildbearbeitungsmöglichkeiten von RAW-Dateien möchten vielleicht viele Wiki-Fotografen gar nicht tiefer in die RAW-Thematik einsteigen, sondern eher erfahren, wie sie mit einfachen Mitteln gute dokumenatische Fotos erzeugen können. Klar, 32-Bit-Exposure-Fusion, Stitching-Techniken, Focus-Stacking, Brenizer, sind alles extrem spannende Foto-Themen, die aber evtl. nur einen sehr eingeschränkten Kreis von wirklich Fotobegeisterten interessieren. --Tuxyso (Diskussion) 16:42, 14. Okt. 2014 (CEST)Beantworten
Wenn wir hier über RAW-Entwicklung sprechen, dann geht es bei Leibe nicht um irgendwelche HighEnd-Technologien (wie Du die Du da aufzählst) sondern um absolute Basic-Bildbearbeitung. Es ist nunmal ein technischer Fakt, dass ein RAW auch für die Standartoptimierung eine deutlich bessere Ausgangsbasis ist, als ein JPG. Ein verhuntzter Weißabgleich lässt sich auf Basis eines JPGs genauso schlecht korrigieren, wie deutlich über- und unterbelichte Bereiche. Da fehlen schlicht die Bildinformationen, um einen hellblauen Himmel zurückzuholen oder eine farbrichtige Abbildung zu gewährleisten. Und das sind neben der immer wieder Nötigen Entzerrung genau die Basics, um dies es auch bei einfachen dokumentarischen Photos geht.
Dass man von dem Lightroom-Plugin erst jetzt etwas mitbekommt ist nicht verwunderlich. Schließlich wurde die erste Version von Commons:LrMediaWiki erst Ende August veröffentlich und, auch wenn sie ziemlich stabil lief, sei den Entwicklern eine gewisse Testphase gegönnt. Auf der WikiCon in Köln gab es dann sogar eine Session zu diesem Thema.
Grundsätzlich hast Du aber recht: Diese enorme Fragmentierung von Informationen ist eines der größen Probleme in unserem Projekt. So gut wir darin sind, ind er Wikipedia vernetzte Informationen aufzubereiten, so schlecht sind wir dabei internes KnowHow weiterzugeben und Arbeitsprozesse zu optimieren. // Martin K. (Diskussion) 17:06, 14. Okt. 2014 (CEST)Beantworten
Du hast bzgl. der verlorenen Bildinfos sicher recht. Interessant ist aber doch, dass die Kamera-Elektronik zur Produktion hochwertiger JPGs immer intelligenter wird, der Ruf nach RAW-Bearbeitung dennoch immer lauter. Ich kenne viele, gerade ältere Fotografen, auf Commons und auch außerhalb der Wikipedia, die keine Lust auf RAW-Bearbeitung haben und bereits aus der Kamera ein gutes JPG bekommen möchten. Sofern man ein Grundverständnis von korrekter Belichtung hat kann man auch mit Kamera-Bordmitteln sehr leicht hochwertige Ergebnisse erzielen - Active D-Lighting ist z.B. bei Nikon eine solche intelligente Technik. Die spannende Frage ist doch, wie ein Großteil der Wikifotografen seinen Fotos bearbeitet bzw. bearbeiten möchte und welche Kamera-Hardware vorhanden ist. RAW als einzige Möglichkeit zu sehen, qualitiativ hochwertige Fotos zu erstellen halte ich für genauso falsch wie den generellen Sinn von Bildbearbeitung in Frage zu stellen. RAW ist eine feine Sache, würdet ihr aber wirklich soweit gehen, dass ein Großteil der Wiki-Fotografen nur noch mit RAW arbeiten sollte? --Tuxyso (Diskussion) 17:28, 14. Okt. 2014 (CEST)Beantworten
Natürlich wäre es toll, wenn die Kamera selbst schon ein perfektes JPG ausspuckt, und natürlich hat sich da in den letzten Jahren einiges getan. Gegen Bedienfehler (wie Unter- oder Überbelichtung oder einen falschen Weißabgleich) und die Gesetze der Optik (stürzende Linien) kommt aber auch die beste Firmware nicht an. Insbesondere ein falscher Weißabgleich kann ein JPG unwiederbringlich ruinieren (wer schonmal versucht hat, ein versehentlich mit Kunstlichweißabgleich aufgenommenes Tageslichtbild zu korrigieren, weiß wovon ich spreche). Und wenn ich mir ansehe, was da so auf Commons landet, sind das beileibe keine Einzelfälle.
RAW ist natürlich nicht die einzige Möglichkeit ein ordentliches Bild zu machen (Ich habe selbst lange genug JPGs photographiert). Aber bei einem RAW ist die Wahrscheinlichkeit doch am größten, dass man aus der Beute einer Photosafari noch irgendwas retten kann – selbst wenn man die Kamera auf Unterbelichtung und den Weißabgleich auf Glühlampe eingestellt hatte. // Martin K. (Diskussion) 17:53, 14. Okt. 2014 (CEST)Beantworten
@Martin Kraft: Ich denke wir haben alle verstanden, dass Gimp kein RAW-Format kann – meine Kamera (und sicher die von >90% aller anderen commons-Fotographen) kann übrigens auch kein raw. Nebenbei ist raw übrigens kein offenes Format, sodass es unwahrscheinlich ist, dass es auf commons geduldet würde (davon, das jeder Kamerahersteller bei raw sein eigenes Süppchen kocht, fang ich gar nicht erst ja). Und wenn 1 Bild 100MB braucht, dann gehen auf eine handelsübliche Platte übrigens zwischen 20.000 und 40.000 Bilder – ich wage zu bezweifeln, dass du so viele Bilder auf einmal bearbeitest.
Ihr (Halb-)Profi-Fotographen wollt einen Workshop: Ich wünsche euch viel Spaß, der Verein hat genug Geld für sowas. Aber hört auf einfachere Programme nieder zu machen – für den absoluten Großteil der Benutzer hier reichen diese nämlich aus; und je mehr OpenSource verwendet wird um so mehr setzt es sich auch durch und wird besser. --DaB. (Diskussion) 17:14, 14. Okt. 2014 (CEST)Beantworten
@DaB.: Es gibt auch de-facto-offene RAW-Formate, beispielsweise Digital Negative (DNG), das wie PDF nicht offen im engeren Sinne, aber zumindest öffentlich dokumentiert und spezifiziert ist. ireas (Diskussion) 17:21, 14. Okt. 2014 (CEST)Beantworten
  • Die These, die Kameras von 90% der Commonsphotographen würden kein RAW beherrschen, halte ich für unhaltbar. Meiner Einschätzung nach ist eher das Gegenteil der Fall: Da neben allen DSLRs auch viele System- und Kompaktkameras sowie mittlerweile sogar einige Smartphones RAWs abspeichern können, würde ich eher davon ausgehen, dass mindestens 2/3 der aktiven Commons-Photographen über eine RAW-fähige Kamera verfügen.
  • In meinem Notebook steckt übrigens keine 2TB-Platte (und ich bezweifle das ich da ein Einzelfall bin).
  • Und was die Bildanzahl angeht: Der Zähler meiner aktuelle Kamera (gekauft im August 2013) ist schon zweimal von 9999 wieder auf 0001 gesprungen.
Es geht mir auch nicht darum „einfachere Programme“ niederzumachen. Ehrlichgesagt bin ich in vielen Bereichen (Browser, Mail, Office, IDE) sogar ein ausgesprochener OpenSource-Fan. Aber wenn es Unzulänglichkeiten gibt, dann darf man sie benennen. Und wenn man mit kommerzieller Software doppelt so schnell vorankommt, dann darf man diese auch schulen. // Martin K. (Diskussion) 17:31, 14. Okt. 2014 (CEST)Beantworten
@Martin Kraft: Dann macht eure Bilder doch einfach kleiner, für ein exzellentes Bild auf Commons werden gerade mal 2 Millionen Pixel vorausgesetzt.--Sinuhe20 (Diskussion) 17:27, 14. Okt. 2014 (CEST)Beantworten
Das ist eine Zahl, die im Zeitalter von UHD-Displays wohl nicht mehr lange Bestand haben dürfte. Außerdem bekommt man bereits heute auf QIC einen auf die Mütze, wenn man ein Bild auf diese Größe runterrechnet. Und auf Commons:FPC oder KEB dürfte so ein Wallpaper ziemlich chancenlos sein. // Martin K. (Diskussion) 17:35, 14. Okt. 2014 (CEST)Beantworten
Das QI und FPC höhere Anforderungen haben, als KEB wäre mir neu: auch dort werden 2 Megapixel theoretisch noch akzeptiert. Dass ein auf 2 Megapixel gedownsampeltes Bild wie hier genannt eine schlechtere Qualität haben soll wie ein mit einer 2-Megapixel-Kamera aufgenommenes Bild halte ich allerdings für unsinnig.--Sinuhe20 (Diskussion) 12:49, 15. Okt. 2014 (CEST)Beantworten
@Sinuhe20: Es gibt nunmal einen Unterschied zwischen den niedergeschriebenen Mindestanforderungen und den tatsächlichen Ansprüchen der Juroren. Versuch einfach mal ein aktuelles 2Mpx Bild auf OIC, FPC und KEB auszeichnen zu lassen. Im Erfolgsfall geb ich Dir ein Bier aus ;)
Da 2 Mpx Kameras schon seit über 10 Jahren nicht mehr produziert werden (sowas gibt's heute maximal noch bei WebCams oder in den Zweitkameras mancher Smartphones), reden wir hier eigentlich immer über eine runterskalierte oder starkgecroppte Versionen. Ich persönlich find's ok, wenn ein Bild für die größten aktuell üblichen Monitore ausreicht (womit wir dann aber eher be 4Mpx wären), aber es gibt gerade auf FPC und KEB auch viele, die es als eine Missachtung unseres Projekts interpretieren, wenn man hier nicht die volle Auflösung hochlädt. // Martin K. (Diskussion) 13:49, 15. Okt. 2014 (CEST)Beantworten
Ja ..., und CANON hat das DPP-Studio. Es ist auch gut und wird bei guten Kameras gleich mitgeliefert. Aber ... nach der Entwicklung müssen dann zusätzlich einige andere Programme herhalten. Es ist umständlich. Und wenn ich mit Lightroom pro Bild auch nur eine Minute Zeit einspare, so läppern sich Unmengen an Zeit zusammen. Für mich ist Zeit das wichtigste im Leben! Ich habe davon leider viel zu wenig. Grüße, --Alchemist-hp (Diskussion) 19:34, 14. Okt. 2014 (CEST)Beantworten

Meine Meinung dazu Gimp Kurs sofort und gerne. Und wenn man von Neiddiskussion spricht, so kam die noch nicht so deutlich durch wie behauptet. Es ist aber schon erstaunlich das an einer sinnvollen Weiterbildugsmaßnahme herumkritisiert wird, mit dem Tenor das hätte man ja auch für andere machen können. Das ist der falsche Ansatz. Es gabe jemanden mit der Idee für denjenigen die mit L.. arbeiten, ein nicht geringe Zahl, eine Weiterbildung zu organisieren. Wer jetzt für andere Programme (gimp, jpg-illuminator, neat image, dxo, geosetter, ...) die Idee hat, soll sich einen Referenten suchen ober bei eigenem passenden Fachwissen selbst seinen dolchen Kurs auf die Beine stellen.

Die Diskussion RAW oder jpg ist Schwaschinn. Auf commons wird typischerweise jpg gespeichert und alle müssen dahin kommen. Wer gute Bilder aus jpg (mit ein paar tools) hinbekommt ist kein Photograph zweiter Klasse. - Irgendwo gibts den Spruch 95% des Bildes passiert hinter der Kamera die restlichen 5% sind technik (also HW und Postprocessing) Es gibt genug Raw-Entwickler die Müll abliefern - ich denke da auch an ein paar Postkarte / HDR Bilder auf de WikiCon, die mit Realismus nichts mehr zu tun hatten. Ich bin auch immer mehr von jpg nach pentax RAW gewandert, da ich feststellte, das ich in den Tiefen der Bilder meiner Kamera noch unglaublich viel herausbekomme. Und wenn ich mir anschaue wie ich in ACR (Adobe Camera Raw converter, der liegt lightroom und cs6 zugrunde) mit der Belichtung zonenweise arbeiten kann, das habe ich bei anderen so noch nicht gesehen. Ob der meiner pentax K3 beiligende Silkypix-Converter schlechter oder besser ist weis ich nicht, da ich ihn nicht probiert habe- liegt einfach daran das ich schon länger mit ACR arbeite.

Man muss akzeptieren das es unterschiedliche Stile gibt und diese sollten unterstützt werden. Also organisiert einen/mehrere Kurs(e) für die anderen Tools - soweit ich helfen kann mache ich gerne mit (auch wenn ich raw entwickle), ich kenne auch die anderen Tools und nutze die auch.

Von der Bildgrößendiskussion halte ich gar nichts, man sollte immer in größtmöglichen der Größe liefern, in der man es selber kann und will. (Wegen der technischen Entwicklung sollten die Werte langsam von mindestens 2 nach 4 Megapixel als Minimalstandard wandern)

--Jörgens.Mi Diskussion 12:41, 15. Okt. 2014 (CEST)Beantworten

+1 Jörgens.Mi, bis auf den letzten Satz: 2MP Bilder reichen bzw. sind mehr als genug für eine Enzyklopädie. Wir dürfen nicht nur an unsere 100-200MBit Leitungen denken, sondern auch an die immer noch vorhandenen Klingelleitungen in vielen Ländern. --Alchemist-hp (Diskussion) 15:42, 15. Okt. 2014 (CEST)Beantworten
@Alchemist, da muss man differenzieren auf Commons also im Bildlager. Heisst es wirklich je grösser desto besser (Wir wissen nicht was die Zukunft bringt). Es heisst allerdings nicht, dass man die 20 MP Version auch im Artikel einbinden muss. Sondern -da gebe ich dir recht- es reicht, wenn man auf Anhieb "nur" eine kleinerer Version runter laden kann. Und eben für die 20 MP Version aktiv auf Commons gehen muss. Weil grösser als Bildschirm fühlend, schau auch ich in der Regel kein Bild an. --Bobo11 (Diskussion) 16:03, 15. Okt. 2014 (CEST)Beantworten
@Bobo11: Ich bin mir nicht sicher, wie du Es heisst allerdings nicht, dass man die 20 MP Version auch im Artikel einbinden muss. meinst: Auf Commons eine kleingerechnete, separate Datei ablegen? Das ist nämlich nicht nötig. Auch ein 20 MP-Bild kannst du ganz normal im Artikel einbinden. Das Thumbnail wird nur einige KB groß sein. Und auch im MediaViewer wird die bildschirmgroße Ansicht extra vom System erzeugt und dann nur so groß geladen, wie der Bildschirm breit ist. Nie die 20 MP auf einen Schlag. Und auf den Dateibeschreibungsseiten gibt es weitere Links zum Herunterladen kleiner Versionen "Weitere Auflösungen: 168 × 240 Pixel | 336 × 480 Pixel | 420 × 600 Pixel | 537 × 768 Pixel | 717 × 1.024 Pixel.". — Raymond Disk. 16:48, 15. Okt. 2014 (CEST)Beantworten
@Raymond: Richtig aktuell ist es so das eben NICHT gleich das grosse Bild runter geladen wird. Ob das in Zukunft so bleibt, das sei jetzt mal dahin gestellt. Ich wollte damit ja sagen das man zwischen hochladen und benutzen unterscheiden muss. Auch wenn bei der Benutzung in der Wikipedia aktuell eine kleine Auflösung ausreichend ist, ist das kein Grund das Bild nicht in der besten Qualität -und dazu gehört auch die volle Auflössung!- hoch zu laden. Man weiss nie wo man es neben der Wikipedia noch benutzen kann. Wenn es eben für einen Wiki-Wettbewerb als Poster ausgedruckt werden soll, ist Auflösung gefragt.--Bobo11 (Diskussion) 18:03, 15. Okt. 2014 (CEST)Beantworten
Die "beste Qualität" ist genau nicht immer identisch mit der "vollen Auflösung". Es gibt soviele rein technisch bedingte Ausnahmen, daß man die in summa beinahe als Regel bezeichnen könnte. -- Smial (Diskussion) 09:53, 16. Okt. 2014 (CEST)Beantworten
Zwei MPixel reichen für alle üblichen Web-Anwendungen, für Hochglanzdruck bis Postkartengröße und akzeptablen Druck bis A4. Sechs MPixel reichen für erstklassigen Druck bis A4 und akzeptablen Posterdruck in beliebiger Größe, wenn man den üblichen Betrachtungsabstand bei solchen Postern berücksichtigt. Wenn wir vom edukativen Aspekt ausgehen: Ich weiß nicht, wieviele Schülerreferate oder Masterarbeiten in A3 oder A2 mit vollformatigen Fotos gedruckt werden, aber mir scheint der tatsächliche Bedarf dafür eher nicht so groß zu sein. Die Bilder, die ich von mir in gedruckten Werken bislang fand bzw. darauf hingewiesen wurde bzw. wo Autoren per Mail nachgefragt hatten, waren allesamt kleiner als sechs MPixel und waren abgesehen von einem Buchtitelumschlag nie vollformatig, sondern in gängiger Spaltenbreite gedruckt. Allenfalls zweispaltig. Da hätte auch EIN MPixel immer gereicht. Professionelle Nachnutzer, die Hochglanzwerbung schalten wollen, werden in den seltensten Fällen auf commons auf die Suche gehen, sondern einen professionellen Fotografen beauftragen.
Es existieren nebenbei auch handfeste technische Gründe, die u.a. die von WMDE in der Vergangenheit formulierte Förderbedingung, Bilderprojekte nur zu unterstützen, wenn die Ergebnisse in voller Auflösung herausspringen oder die lustige Idee einiger "Bewerter" auf com:qic, (mäßig) herunterskalierte Bilder nicht als QI zu akzeptieren, absurd erscheinen lassen. -- Smial (Diskussion) 18:22, 15. Okt. 2014 (CEST)Beantworten
Commons hat andere Ziele und Gäste als Wikipedia & Co. Commons ist ein Bilderpool und nicht allein auf Bildungsaspekte ausgerichtet. Die freien Inhalte sind für alle denkbaren Nutzungen gedacht. Von mir fanden einige Bilder bei der Gestaltung von KFC-Filialen mehreren Städten in den Niederlanden Verwendung. Alle deutlich über 4 m breit und alle vorbildlich lizenziert. Aber wir driften ab ;) --Pölkky 19:17, 15. Okt. 2014 (CEST)Beantworten
Es geht nicht darum, daß man das nicht machen soll, sondern darum, daß das irgendwo zur "Bedingung" für ich weiß nicht was gemacht wird. Commons ist sicherlich ein Bilderpool. Und was für einer. Weia. -- Smial (Diskussion) 20:02, 15. Okt. 2014 (CEST)Ja, es gibt wahre Perlen und Schätze dort. Wenn man die zwischen all dem Müll finden kann.Beantworten

Projektideen für Workshops

Hallo @all, wenn es weitere Workshop-Ideen gibt, gerne auf Wikipedia:Förderung/Projektplanung eine entsprechende Planungsseite anlegen oder bei Fragen per Mail an community@wikimedia.de wenden. Wir helfen gerne bei der Vorbereitung und/oder bei Fragen. --Sebastian Sooth (WMDE) (Diskussion) 15:20, 20. Okt. 2014 (CEST)Beantworten

Dengue-Fieber: Die drei ungleichen Brüder

Zitat: Keine der beiden Zeitschriften-Versionen enthält Wiki-Links oder Links zu einem anderen Nachschlagewerk oder Glossar, was den Text für medizinische Laien schwer verständlich macht. Ein großes Problem bei medizinischen und anderen naturwissenschaftlichen Artikeln, nämlich daß man anstatt auf Fachsprache möglichst zu verzichten sich zu sehr auf Wiki-Links verläßt. Um solche Artikel zu verstehen müssen erst sämtliche Fachbegriffe nachgeschlagen werden, was den Lesefluss erheblich stört. Ein Offline-Lesen der Pdf- oder E-Book-Version ist nahezu unmöglich.--Sinuhe20 (Diskussion) 23:47, 13. Okt. 2014 (CEST)Beantworten

Das ist eben der Spagat, mit dem wir bei allen Artikeln mit wissenschaftlichem Hintergrund leben müssen: Für viele wissenschaftliche Fachbegriffe gibt es einfach keine definitorisch trennscharfe deutsche Übersetzung. Also sind wir, wenn Artikel allgemeinverständlich bleiben sollen, dennoch gezwungen die Fachbegriffe zu verwenden und möglicherweise die deutsche „Übersetzung“ gleichzeitig zu erwähnen. Aber hier findet sich auch der Vorteil, den Wikipedia-Artikel gegenüber wissenschaftlichen Papers haben: Wir können dem Leser durch interne Verlinkung einen niederschwelligen Zugang zum Verständnis von Fachvokabular bieten; das ist in wissenschaftlichen Papers, zumal in Print-Versionen, so nicht möglich.
Ein anderes „Problem“ ist die Aktualität von WP-Artikeln: Falls heute relevante Neuigkeiten zum Dengue-Fieber veröffentlicht werden, stehen sie morgen (naja, vielleicht auch erst übermorgen) im WP-Artikel. Der Artikel ist dann „besser“ als die peer reviewed-Veröffentlichung auf PLOS. Ein Journal, dass sich auf das Abenteuer der Veröffentlichung eines WP-Artikels einlässt, steht da vor einem Problem: Ignoriert es die Verbesserungen im WP-Artikel, könnte die Reputation des Journals Schaden nehmen, falls eine andere Veröffentlichung so entstandene Lücken oder veraltete Informationen nachweist. Oder der Artikel wird einem regelmäßigen Folgereview unterzogen - das bindet allerdings einiges an Arbeitskraft und kostet schlichtweg auch Geld. Eine Lösung dafür könnte die Einführung von geprüften Versionen sein - nicht flächendeckend, sondern ausschließlich für Artikel, die extern peer reviewed wurden. Zu diesem Zweck könnte man eine Benutzergruppe einführen, die im jeweiligen Fachbereich das Recht hat, solche Artikel als "Geprüfte Version" zu kennzeichnen und gleichzeitig das veröffentlichende Journal auf die relevanten Änderungen hinweist. Es arbeiten ja hier viel mehr wissenschaftlich hochrangige Koryphäen mit, als der gemeine Wikipedianer glaubt. Um Mitglied einer solchen Benutzergruppe -zum Beispiel „Reviewer Allergologie“ - zu werden, wäre dann natürlich die Offenlegung der wissenschaftlichen Qualifikation - beispielsweise per OTRS-Ticket - erforderlich.
Eine andere Möglichkeit wäre die, dass ein solcher fachlich qualifizierter Benutzer die „Patenschaft“ über einen solchen reviewed Artikel übernimmt und sich bereit erklärt, relevante Änderungen an das veröffentlichende Journal weiter zu geben.
Die dritte Möglichkeit wäre natürlich, dass das Journal selbst die Beobachtung des Artikels übernimmt und relevante Änderungen seinen Reviewern zur Überprüfung vorlegt. Das Journal könnte dann beispielswweise ganz einfach auf der Disk.-Seite eines solchen Artikels vermerken: „Die Version xyz wurde einem Nach-Review unterzogen und für korrekt befunden“. Das würde voraussetzen, dass das Journal über Mitarbeiter verfügt, die Wikipedianer sind oder bereit sind, sich in die WP einzuarbeiten.
Ich kann mir vorstellen, dass das Angebot, solche Artikel mit „wikipedianischen Hausmitteln“ zu warten, weitere Journals, vor allem soche mit intensiver Internet-Aktivität, ermutigen könnte, ebenfalls eine solche Zusammenarbeit zu suchen. Ein Aktualitätsvorsprung vor den Mitbewerbern schlüge sich ja für das Journal durchaus auch in € und Cent wieder.
Zum Schluss möchte ich @Andrea Kamphuis: für diesen schönen, auch Mut machenden Artikel ein großes „Dankeschön“ sagen. Der Artikel eröffnet Perspektiven für die Zukunft, die sich viele Wissenschaftler in der Wikipedia seit langen wünschen. --Thomas, der Bader (TH?WZRM-Wau!!) 14:18, 14. Okt. 2014 (CEST)Beantworten
@Thomas und Andrea: das ist eine schöne Sache. Gut, dass sich hier etwas bewegt, was wir gar nicht für möglich gehalten haben. Solche Prozesse verschieben die Maßstäbe für das, was wichtig ist und zwar zurück in die richtige Richtung, nämlich zum inhaltlichen Arbeiten an unserer Enzyklopädie. Da kriegt man doch fast wieder Spass am Artikelschreiben. lg -- Andreas Werle (Diskussion) 20:37, 14. Okt. 2014 (CEST)Beantworten
Wenn ein Wikipedia-Artikel es in eine Fachzeitschrift schafft, dann ist doch eh etwas schief gelaufen, oder? Die Experten freuen sich dann zwar, aber sehr OMA-tauglich kann er dann ja nicht sein…… Manchmal wünsche ich mir echt den Brockhaus zurück…--Sinuhe20 (Diskussion) 17:14, 14. Okt. 2014 (CEST)Beantworten
Ja, viele Wikipedia-Artikel sind nicht allgemein verständlich. Für die wichtigsten pharmakologischen Artikel in der englischen und in der deutschen Wikipedia haben das kürzlich Kräenbring et al. gezeigt: Die Artikel sind weitgehend korrekt und vollständig, aber sehr schwer verständlich. Das passt nicht zum Ideal der Wikipedia.
Andererseits hat sich die Medienwelt in den letzten 20 Jahren durch die Digitalisierung, Globalisierung usw. so radikal gewandelt, dass nicht nur der Brockhaus, sondern auch alle möglichen Fachlexika unrentabel geworden sind und viele Kliniken und Unis sich die z. T. unverschämt teuren Fachzeitschriften nicht leisten können. Ohne dem umstrittenen Jaron Lanier in seinem Wikipedia-Bashing recht geben zu wollen: Der Erfolg der Wikipedia hat mit dazu beigetragen, dass sie in vielen Gebieten das zugänglichste, in manchen Gebieten sogar das einzige zugängliche Nachschlagewerk ist, da sie mit ihrer schieren Wucht das Ableben ihrer Konkurrenz beschleunigt hat. Sie ist jetzt, ob es uns passt oder nicht, *der* zentrale Anlaufpunkt auch für viele Ärzte und Wissenschaftler, die außerhalb ihres engen Fachgebiets genauso hilflos vor der Informationsflut stehen wie alle anderen. Wer dringend gute Infos z. B. über Dengue-Fieber sucht, hat nicht die Muße, 30 Reviews zu suchen, zu beschaffen und zu lesen. Er hat auch nicht die Ruhe, einen 400.000 Zeichen langen Wikipedia-Eintrag zu lesen - und so lang würde der Artikel wohl werden, wenn man alle darin verwendeten Fachbegriffe vermeiden oder allgemein verständlich auflösen wollte, statt Wikilinks zu setzen. Dieses Dilemma wird uns noch lange begleiten.
Was nicht heißen soll, dass wir den Anspruch, möglichst verständlich zu schreiben, aufgeben sollten. Auch wenn wir am Ideal scheitern, können wir die Artikel noch deutlich verständlicher machen, als sie jetzt sind. Immerhin haben wir in der deutschen Wikipedia den Vorteil, dass nicht ständig Abermillionen Menschen in ehemaligen Kolonien auf unsere Texte zugreifen (müssen). Dadurch ist m. E. der "moralische Druck" erträglicher, und wir können etwas entspannter an unsere Medizin-Artikel herangehen. --Andrea Kamphuis (Diskussion) 20:57, 14. Okt. 2014 (CEST)Beantworten
@Andrea Kamphuis:Die von dir oben genannte Untersuchung (sehr spannend, danke!) sagt: Both Wikipedia and textbooks samples had comparable, low readability. Wenn Fachliteratur und Wikipedia ähnlich unleserlich sind, finde ich das Problem deutlich weniger dramatisch.
Man sollte sich bei der Diskussion abe auch vor Augen halten, das WP immer schon bzw. zumindest seit relativ frühen Jahren auch ein Fachlexikon war. Für Laien oft kaum verständliche (natur)wissenschaftliche Fachartikel, verfasst von Fachstudenten und Professoren, waren praktisch von Beginn dabei bzw. waren/sind einfach eine Konsequenz der Interessensgebiete der Autorenschaft. Neu ist nur das diese fachwissenschaftliche Seite der WP, jetzt vestärkt in der öffentlichen Diskussion wahrgenommen wird und von Akademikern immer stärker auch ganz offiziell für ihre Arbeit und Lehre genutzt wird. Gerade im Natürwissenschaftlichen Bereich verlinken Akademiker in ihren Vorlesungsmaterialien, Blogbeiträgen oder Online-Veröffentlicheúngen schon seit längerem gerne auf entsprechen Wikipedia-Artikel (von ausreichender Qualität).
Bezogen auf Lanier, stimmt es zwar das das Sterben mancher Lexika oder Enzyklopädien auch auf Wikipedia zurückgeht, nur waren diese in der Vorwikipediazeit eben keine freien und für jeden einfach zugängliche Alternative. Sondern "einfach" zugänglich waren sie selbst in reichen, entwickelten Ländern oft nur einer Wissenselite, in diesen Sinne hat WP da durchaus eine positive "Demokratisierung" des wissen bewirkt. Nicht in dem Sinne, dass (veintliches) Wissen zum Gegenstand von Abstimmungen und damit belanglos wird (wohl auch einer Laniers Kritikpunkten), sondern in dem Sinne, dass das Wissen einem größeren Personenkreis zugänglich ist (wohl ganz im Sinne Diderots).--Kmhkmh (Diskussion) 16:13, 15. Okt. 2014 (CEST)Beantworten
Beim Thema Fachsprache und Allgemeinverständlichkeit von NaWi-Artikeln möchte ich kurz eine Lieblingsanekdote von mir zum Besten geben. Ich habe mal einen guten Freund von mir (immerhin Abschlüsse an zwei Universitäten, M.A. in Physik) beiläufig gefragt, ob er in Studienzeiten die Wikipedia genützt habe und was er so vom hiesigen Artikelniveau in seinem Fachbereich halte. Die Antwort kam prompt und hat mich dann doch überrascht: Alle Physik-Artikel, die er sich mal angeschaut habe, seien viel zu kompliziert formuliert, als dass er sie ohne tieferes Einarbeiten verstehen könne. Er habe die Wikipedia zu Studentenzeiten also gleich gar nicht nützen können und jetzt kenne er einfach bessere und vor allem klarer verständliche Informationsquellen (seine Empfehlung für den Hilfsbedürftigen mit wenig Zeit war übrigens youtube! Genau, youtube!). Wikipedia-Artikel betrieben ohne jede Not einen Riesenaufwand in inhaltlicher wie formulierungstechnischer Komplexitätssteigerung. Nun, n=1 ist natürlich eine kleine Stichprobe, aber ich fand's schon bedenklich, dass die Wikipedia im NaWi-Bereich (vielleicht aber auch anderswo...) offenbar sogar schon einigen hochqualifizierten Akademikern (eigentlich nicht unserer unbeholfensten Zielgruppe) zu viel zumutet. --Mai-Sachme (Diskussion) 10:22, 15. Okt. 2014 (CEST)Beantworten
Diese Kritik ist unberechtigt, allerdings liegt dieses Phänomen an dem immer wachsenden Umfang von Wikipedia und teilweise sehr speziellen Artikeln. Man darf nicht vergesssen, dass sich die einzelnen Fachwissenschaften inzwischen selbst sehr ausdifferenziert haben und jede Menge Spezialwissen, eigenes Fachvokabular und eigene Notationen angehäuft haben. Mit anderen Worten ein Physiker mit Schwerpunkt B versteht unter Umständen wenig bis nichts wenn er etwas von einem Physiker aus Schwerpunkt B liest. Insofern lässt sich dieser Effelt in WP bei sehr spezialisierten Artikeln wohl nicht verhindern, aber bei Übersichtsartikeln und Einleitungen könnte (und müsste) man natürlich auf größere Zuganglichkeit and abgerüstete Formulierungen achten.--Kmhkmh (Diskussion) 16:36, 15. Okt. 2014 (CEST)Beantworten
Ohne meine Anekdote überstrapazieren zu wollen: Ich denke schon, dass Kritik berechtigt ist (ein ich denke würde auch deinem Kommentar recht gut tun, nur mal so...), wenn ein im entsprechenden Fachbereich ausgebildeter Akademiker die Wikipedia als Nachschlagewerk meidet (er hat sein persönliches Spezialgebiet von seinem Urteil gar nicht mal ausgeschlossen). Seine Beobachtung läuft ja darauf hinaus, dass der Aufwand, einen Wikipedia-Artikel zu erfassen, besser in die Lektüre von nem publizierten Paper investiert wäre. Und falls er eine Info irgendwo mal schnell und simpel aufbereitet haben wollte, wurde er anderswo besser bedient. Insofern überzeugt mich der Verweis auf Ausdifferenzierung der Fachdisziplinen von Atomic (eins drunter) und dir nicht so ganz. Es stellt sich nämlich die Frage, welche Leserschaft eigentlich die Zielgruppe unserer Artikel sein soll. Leute, die die original papers (die von uns als Quellen genutzt werden) gleich selbst lesen können? --Mai-Sachme (Diskussion) 17:22, 15. Okt. 2014 (CEST)Beantworten
Letzte Woche hat eine meiner "Kundinnen" hier spontan so ziemlich das Gegenteil geäußert. Wenn sie in Lehrbüchern feststecke, hätte ihr schon häufiger ein Blick in die entsprechenden Wikipedia-Artikel weiter geholfen (Hintergrund ist Physik Hauptfach, fünftes Semester). Außerdem wären die deutschen Artikel hilfreicher als die englischen. Wessen Einzelzeuge ist nun näher an der "Wahrheit"?---<)kmk(>- (Diskussion) 01:38, 16. Okt. 2014 (CEST)Beantworten
Wenn es widersprechende Stimmen gibt, wieso glaubst du dann mit derartiger Bestimmtheit sagen zu können Diese Kritik ist unberechtigt? Offenbar hast du dich ja schon entschieden, welcher Einzelzeuge deiner Meinung nach näher an der "Wahrheit" ist. So einfach solltest du es dir aber nicht machen, finde ich... --Mai-Sachme (Diskussion) 08:15, 16. Okt. 2014 (CEST)Beantworten
Man kann trifft in WP eben Beides an, insofern ist Kritik nicht unberechtigt, aber eben auch nur die halbe Wahrheit.
Das Phänomen des Heranziehens von Wikipedia beim Feststecken in Lehrbüchern oder Fachliteratur ergibt sich im Übrigen nicht nur aus einer möglicherweise verständlicheren Darstellung in WP, sondern auch einfach aus der Fülle des Materials in WP, die kein Lehrbuch abdecken kann. Wenn das Lehrbuch eben auf Resultate/Lehrsätze/Ergebnisse aus anderen Bereichen zurückgreift und man diese nicht mehr in ausreichenden Maße parat hat oder auch überhaupt nicht kennt/versteht, so ist meist der schnellste/einfachste Wg, diese zunächst einmal in WP nachzuschlagen. Ich schlage inzwischen fast alles, inbesondere auch fachwissenschaftliche Dinge, auch bzw. meist zuerst in WP nach und nur greife nur dann zum Bücherregal/Bibliothek/Journaldatenbank, wenn die dortige Darstellung für meine Zwecke nicht ausreicht.--Kmhkmh (Diskussion) 09:15, 16. Okt. 2014 (CEST)Beantworten

Das Ganze ist Ausdruck eines sehr langfristigen Prozesses: Dem der funktionalen Differenzierung. Ich stelle die These auf, dass ein HNO-Arzt es schwer hat mit dem Verständnis eines Artikels aus dem Bereich der Ophthalmologie. Macht erstmal nichts, das ist nicht unwahrscheinlich, sondern wahrscheinlich. Wissen ist nie ohne Anstrengung zu haben, das gilt bei der Lektüre und das gilt bei der Artikelproduktion.
Funktionale Differenzierung betrifft alle Lebensbereiche. Zu glauben, alles ließe sich über eine „einfache Sprache“ integrieren, ist – tut mir Leid – naiv. Gute Artikel müssen ihren Gegenstand sauber beschreiben. Dazu gehört eine angemessene Sprache, eine gute Einleitung und eine adäquate Artikelstruktur.
Der Beitrag von Andrea Kamphuis hat mich auch gefreut, zeigt er doch, wie wichtig draußen unsere Arbeit ist. Und in welchem Maße sie gewertschätzt wird. WP ist die Informationsplattform Nr. 1. Wir haben Verantwortung für die Leser, deshalb muss Qualität immer das oberste Gebot sein. Atomiccocktail (Diskussion) 12:33, 15. Okt. 2014 (CEST)Beantworten

Danke, sehe ich ebenso - selbst manchmal nach aussen wirkend triviale Dinge lassen sich nie vollständig ohne das jeweilige Vokabular des Fachbereichs beschreiben. Da das Dengue-Fieber allerdings nicht trivial ist wird man auf Fachbegriffe wie Infektion, Inkubationszeit, Epidemiologie u.a. nicht verzichten können. Da der Ruf nach dem Brockhaus kam: Vielleicht hat ihn ja jemand zur Hand und kann den Inhalt mit unserem Artikel vergleichen - meine Prognose aus der Erfahrung: der Brockhaus-Artikel ist oberflächlicher und sehr knapp, dadurch jedoch sicher nicht besser. -- Achim Raschka (Diskussion) 13:57, 15. Okt. 2014 (CEST)Beantworten
Ermutigendes Signal in einem Entwicklungsstadium der Wikipedia, in dem es sehr darauf ankommt, den Anschluss an den Wissenschaftsbetrieb herzustellen, um der Artikelqualität weiter aufzuhelfen. Dabei sollte der Anspruch auf eine möglichst allgemeinverständliche Sprache aber nicht über Bord gehen. Besonders in den als Artikeleinstieg und –überblick anzulegenden Einleitungen ist das wichtige Wikipedianer-Pflicht. Wem andererseits das je fachliche kleine Einmaleins abgeht, hat im Verlinkungsmodus alle Chancen, sich unter der Lektüre für diese fit zu machen.
-- Barnos (Post) 15:19, 15. Okt. 2014 (CEST)Beantworten
@Achim Raschka: Gegen die von dir genannten Fachbegriffe ist nichts einzuwenden, darunter versteht der Großteil der Leser ja noch etwas. Schwierigkeiten (um mal Beispiele aus dem Artikel Denguefieber zu nehmen) bereiten eher Wörter wie hämorrhagisch, autochthon, mikrozirkulär oder Avidität. Es geht auch nicht nur darum, welche Fachwörter verwendet werden, sondern auch auf welche Themen besonderer Fokus gelegt wird. Absolut lesenswert für mich ist der Artikel bei NetDoktor, man erfährt dort unverschlüsselt alles Wissenswerte, was einen Leser auch wirklich interessiert, unverständliche Begriffe sind dagegen Mangelware. Hier merkt man, dass sich der Artikel nicht ausschließlich an Medizinstudenten richtet. ;) --Sinuhe20 (Diskussion) 16:34, 15. Okt. 2014 (CEST)Beantworten

Da oben nach der "Brockhaus-Darstellung" gefragt wurde, hier ist die entsprechende Darstellung aus dem großen Meyers der 1990er:

Denguefieber (Siebentagekrankheit), Viruskrankheit in den Tropen und Subtropen, die durch Stechmücken der Gattung Aedes übertragen wird. Die Erreger, die Dengueviren, gehören zur Gruppe der Arboviren. Nach einer Inkubationszeit von 5-8 Tagen treten hohes Fieber und Schüttelfrost, sowie Muskel-, Gelenk-, und Kreuzschmerzen, später maserähnl. Hautausschlag auf.“

MEYERS GROSSES TASCHENLEXIKON in 24 Bänden, Band 5 (Con-Dug), Mannheim 1992, S. 116

Vergleicht man das mit Denguefieber, braucht man wohl nicht lange zu diskutieren, welcher Artikel besser ist. Die Meyers-Variante ist zwar in der Tat etwas allgemeinverständlicher, was aber primär darauf beruht, dass sie alle komplizierteren (aber wichtigen) Sachverhalte (wo man gerne zum fachwissenschaftlichen Vokabular greift) einfach weglässt. Praktisch nichts zu Geschichte, Diagnose, Behandlung oder auch Häufigkeit, nicht einmal einen Hinweis auf die Entwicklung zum hämorrhagischen Fieber (der eigentlichen Gefährlichkeit) gibt es. Wenn man da überhaupt etwas von Meyers bzw. Brockhaus & Co. lernen kann, dann vielleicht für die Gestaltung einer kurzen prägnanten allgemeinverständlichen Einleitung, aber selbst da halten wohl schon viele die Einleitung des Wikipedia-Artikels für besser und ausreichend allgemeinverständlich. Ansonsten kann man an dem Beispiel noch einmal sehen wie üblich "Stubs" in externen/traditionellen Enzyklopädien/Lexika sind, denn als solchen würde man den Meyers-Eintrag wohl in der WP klassifizieren.--Kmhkmh (Diskussion) 09:44, 16. Okt. 2014 (CEST)Beantworten

Einen längeren Einträg hätte ich jetzt im Meyers auch nicht erwartet. Interessanter wäre vielleicht der Eintrag im Brockhaus Gesundheit oder in einem ähnlichen Lexikon, das speziell auf Gesundheitsthemen zugeschnitten ist. Es werden auch sehr gute Artikel im Internet angeboten (etwa von einem Experten in der Apothekenumschau), eine Verlinkung hat man sich aber anscheinend nicht getraut, dann lieber auf ein an Ärzte gerichteten Ratgeber des Robert-Koch-Instituts oder auf englischsprachige Seiten. Auch der Literaturabschnitt lässt vermuten, dass der Artikel eher an Ärzte und Apotheker gerichtet ist.--Sinuhe20 (Diskussion) 14:10, 16. Okt. 2014 (CEST)Beantworten

Verständliches Schreiben lernen

Nurmalso ne Idee: Verständliches Schreiben kann man lernen. Gerade wer viel in Wikipedia schreibt, sollte sich darum bemühen. Es wäre jedenfalls ein super Thema für einen Workshop für Autoren. Wenn die Photographen gut photographieren lernen wollen, sollten Autoren darauf abzielen, verständlich zu schreiben. Die Freiwilligenförderung sollte das übernehmen. Referenten gibt es beispielsweise an Journalistenschulen.--Aschmidt (Diskussion) 22:04, 15. Okt. 2014 (CEST)Beantworten

+1 Sehr guter Vorschlag.Atomiccocktail (Diskussion) 22:32, 15. Okt. 2014 (CEST)Beantworten
Vielleicht müssen wir auch, wie Atomiccocktail weiter oben schreibt, akzeptieren dass sich verständliches Schreiben und eine qualtitative Enzyklopädie mit hohen Maßstäben nicht miteinander vertragen, weil man für eine genaue Beschreibung auf bestimmte Fachwörter einfach nicht verzichten kann. Unsere Lexikonartikel sind anscheinend nicht alle darauf ausgelegt, von vorne bis hinten von jedermann gelesen und verstanden werden zu können, sondern darauf, dass jeder ob nun Wissenschaftler, Arzt, Medizinstudent oder Patient an verschiedenen Stellen das findet, wonach er gerade sucht. Kann es sein, dass wir neben Wikipedia noch eine andere Art von „Enzyklopädie“ (eine Art Wikipedia light) benötigen, die das Fachpublikum voll und ganz ausschließt und sich ausschließlich an das „normale“ Volk mit dem maximalen Wortschatz eines Dudens richtet, eine Enzyklopädie, die nur allgemein relevante Themen behandelt und von allen Bevölkerungsgruppen gleichermaßen verstanden werden kann?--Sinuhe20 (Diskussion) 22:54, 15. Okt. 2014 (CEST)Beantworten
Ein Ausweg wären hier ggf., den Aufbau eines Artikels anders anzulegen: allgemeinverständliche Einleitung, Überblick über das Thema, und dann erst für diejenigen, die es genauer wissen wollen, die ganzen Details, durchaus auch fachsprachlich. Man muß dazu nicht das Gesamtwerk aufspalten, man kann das auch innerhalb von Wikipedia tun.--Aschmidt (Diskussion) 23:10, 15. Okt. 2014 (CEST)Beantworten
Das jeder Artikel von jedem von vorne bis hinten gelesen und verstanden werden konnte traf auch schon zu Brockhauszeiten nicht zu und ist aus meiner Sicht ein unsinniges weil unrealistisches Ziel. Es muss stattdessen darum gehen Artikel (insbesondere Ubsersichtsartikel und Einleitungen) nicht unnötig unverständlich zu gestalten. Es gibt Situationen in denen eine korrekte Darstellungen ohne bestimmte Fachbegriffe oder Notationen nicht möglich ist, es gibt aber Fälle in denen Texten unnötig mit Fachbegriffe vollgestopft werden, die keineswegs zu einer exakten Darstellung nötig sind. Zudem muss man fachwissenschaftlich exakte Darstellung und Allgemeinverständlichkeit nicht immer gegeneinander auspielen, ein Artikel kann sowohl primär allgemeinverständliche als primär fachwissenschaftliche Abschnitte enthalten und so unterschiedliche Lesergruppen bedienen.
Projekte a la "Wikipedia light" gibt es übrigens schon längst, auf im englischsprachigen Bereich z.B. die Simple English Wikipedia und hier wurde vor einiger Zeit mal die Möglichkeit einer Kinderwikipedia diskutiert.--Kmhkmh (Diskussion) 00:57, 16. Okt. 2014 (CEST)Beantworten
Mit Kinder-/Light-Varianten wird man hierzulande wohl nicht weit kommen (mal abgesehen davon, dass man dann wohl noch in eine gesonderte Kinder-Relevanzprüfung eintreten müsste); oder hat jemand schon von bedeutenden Wikipedianer-Personalüberhängen läuten hören?
Also mit Aschmidt, wobei der Überblick nicht als gesondertes Einsprengsel nach der Einleitung angeboten werden sollte – was ja auch gelegentlich versucht worden ist –, sondern durch die Einleitung selbst und ein entsprechend gestaltetes Inhaltsverzeichnis herzustellen ist. Das geht, guten Willen vorausgesetzt, überall.
-- Barnos (Post) 07:34, 16. Okt. 2014 (CEST)Beantworten
Nur kurz hierzu: Mit Klexikon geht gerade eine Kinder-Wikipedia auf deutsch an den Start - Mitschreiber werden gesucht. Simple German wurde vor Jahren auch schonmal diskutiert - afaik wirk keine simple irgendwas mehr gewünscht. -- Achim Raschka (Diskussion) 08:21, 16. Okt. 2014 (CEST)Beantworten
Die Simple English Wikipedia ist ein guter Schritt in die richtige Richtung, allerdings sind Sprache und Stil nach meinem Geschmack schon wieder viel zu stark vereinfacht (siehe simple:Henry Ford). Eine Kinder-Wikipedia ist wiederum zu restriktiv auf eine bestimmte Zielgruppe zugeschnitten. Eine Wikipedia light sollte irgendwo zwischen diesen ganzen Extremen stehen. Allerdings ist solch ein Projekt mit den bei Wikipedia beteiligten Autoren wahrscheinlich gar nicht zu bewerkstelligen, dafür benötigt man entweder erfahrende Pädagogen oder zumindest Personen, die sich in Wort und Schrift hervorragend ausdrücken und in die Leser mit ihren Problemen und Schwächen gut hineinversetzen können. Unsere Autoren sind dagegen (das unterstelle ich ihnen jetzt einfach mal) nur gut darin, Fachwissen zu verbreiten, was nicht unbedingt mit vermitteln gleichzusetzen ist. Wir sollten zumindest erstmal einsehen, dass die Wikipedia in der jetzigen Form auch Schwächen besitzt, dass sie kein Allheilmittel ist und dass genügend Platz und Lücken vorhanden sind, die durch alternative (Enzyklopädie-)Projekte (ob nun in Buchform oder im Internet) gefüllt werden könnten. Das Einstellen des Brockhauses ist in diesem Sinne sehr beklagenswert, man muß aber auch zugeben, dass viele kleinere Themen in dem Werk viel zu kurz kamen und die kostenlose Alternative im Internet für den Leser einfach viel zu verlockend ist. Meiner Meinung nach wartet die „perfekte Enzyklopädie“ immer noch darauf, geschrieben zu werden, vielleicht ist es aber auch nur eine Utopie, der man sich schrittweise annähern kann, die aber nie wirklich erreicht wird.--Sinuhe20 (Diskussion) 14:04, 16. Okt. 2014 (CEST)Beantworten
Alsdann mögen die in Kinderdingen Startenden, von denen ich noch nicht wusste, Gutes bewirken. Warum man mögliche Vikidia-Synergien nicht auch im Projektnamen zum Ausdruck bringt und damit auch von de-Seite her einen transkulturellen Akzent setzt, ist mir allerdings nicht auf Anhieb plausibel. Letztlich liegt das ja auch deutlich näher am Abstammungsort und sozusagen bei der Kernfamilie. –
Ob eine kindergerechte Wikipedia wirklich gebraucht wird, ist eine andere Frage, die ich selbst eher verneine. Kinderwelten aus Sprache und Bildern entstehen besser in Büchern und in der Natur als an Bildschirmen. Wir haben unsere beiden lange weitgehend fernhalten können von den Mattscheiben aller Art. Das hat bisher weder uns noch ihnen leid getan, auch wenn es nun schon ein paar Jahre zurückliegt...
-- Barnos (Post) 15:19, 16. Okt. 2014 (CEST)Beantworten

Für verständliches Schreiben bin ich sehr. Wenn der Leser den Text nicht versteht, dann kann der Text nach anderen Kriterien noch so gut sein, er hat sein Ziel nicht erreicht. / Vikidia sollte ursprünglich in die Wikimedia-Familie kommen, aber der Initiator hat den Prozess auf Meta abgebrochen. Z. (Diskussion) 23:52, 18. Okt. 2014 (CEST)Beantworten

Z.: Dann werd' konkret --Succu (Diskussion) 00:04, 19. Okt. 2014 (CEST)Beantworten

"praxisrelevantes Medizinwissen"

Es mag überraschend erscheinen, aber ich glaube nicht, dass es jemals ein Anliegen einer Enzyklopädie war "praxisrelevant" zu sein. Das würde ja bedeuten, dass man den ganzen (vermuteten) Kontext der Praxis mit abbilden müsste. Es ist völlig wurscht wer das hier dargestellte Wissen wo und unter welchen Umständen nutzt. Wer bestimmten Personengruppen bestimmte "praxisrelevante" Informationen zukommen lassen will, der sollte sich dafür eine geeignete Kommunikationsplattform suchen oder schaffen. Sonst wird bald Praxistauglichkeit als Relevanzkriterium geführt oder gar die "richtige" und "normale" Praxis gleich mit vorgegeben. Manche Artikel sind ja allein dadurch praxistauglich, weil ich damit meine Kollegen beeindrucken kann (Klugscheisserei) - um mal die Bandbreite der "Praxis" zu illustrieren. Also hört mir auf mit dem "praxisrelevant", bevor es noch viel mehr und ganz andere Konflikte damit gibt. --Gamma γ 22:00, 19. Okt. 2014 (CEST)Beantworten

Da stehst Du aber im Widerspruch zu unserem obersten Spendenverzehrer. Nach dessen Meinung ist unsere Prämisse, den Menschen Information bereitzustellen, damit sie bessere Lebensentscheidungen treffen. Und unser westliches Konzept von Enzyklopädie ist dabei eher etwas engstirnig gegenüber anderen Formen der Informationsweitergabe wie mündlicher Überlieferung. Gruß --Magiers (Diskussion) 22:44, 19. Okt. 2014 (CEST)Beantworten
Praxisrelevantes Medizinwissen für Patienten ok, sogar äußerst wünschenswert, wenn aber ein Arzt sein Wissen bei Wikipedia nachschlagen muss, würde ich mir Sorgen machen… Eine Wikipedia für Ärzte ist einfach das falsche Konzept.--Sinuhe20 (Diskussion) 23:02, 19. Okt. 2014 (CEST)Beantworten
Einerseits ja. Ein Spezialist sollte immer mehr von seinem Thema verstehen als in der Wikipedia steht. Andererseits ist auch die Medizin ein weites Feld. Und da sind Ärzte dann auch wieder nur in einem Teil Spezialisten. Wenn also ein Chirurg was über Malaria in der Wikipedia nachschlagen würde bevor er einen Kollegen aus dem Tropeninstitut fragt, warum nicht. Aber unser Zielpublikum sollte das deswegen trotzdem nicht sein, da sind wir uns einig. d65sag's mir 23:33, 19. Okt. 2014 (CEST)Beantworten
Da ich mit einer Ärztin befreundet bin: Man sollte sich keinen falschen Vorstellungen über Mediziner hingeben. ;) --Aschmidt (Diskussion) 01:33, 20. Okt. 2014 (CEST)Beantworten

Ada-Policies für Wiki-Veranstaltungen: Topp oder Flop?

Einzelne Punkte klingen ja wirklich reichlich absurd: Die Benutzung von Weichspülern (clothes softener) soll verboten sein? Wie bitte? Und zum Melden von Verstössen wird also ermuntert, "dieser Typ hat offenbar Weichspüler benutzt! Schmeisst ihn raus!" - oder wie? *kopfkratz* Gestumblindi 22:38, 15. Okt. 2014 (CEST)Beantworten

Vielleicht stinken ja amerikanische Weichspüler nach Katzenpisse. *duck & wegrenn* (nicht signierter Beitrag von Schlesinger (Diskussion | Beiträge) 22:43, 15. Okt. 2014‎)
"10 bis 15 Prozent" - das klingt doch schon ordentlich! Sind wirklich soviele Frauen dabei? Ist das nicht schon eine steigerung? Oder wurde einfach eine andere Art der Erfassung/Zählung verwendet :D - ich kenne noch was von 8 %
...Sicherlich Post 23:00, 15. Okt. 2014 (CEST) lustig ist natürlich, dass man sich die Hände nach dem rauchen waschen soll, aber bedenken soll, dass Seife irgendwen stören könnte ^^ - schweißgeruch übrigens auch. aber! und das soll nicht vergessen werden; " If someone is wearing a scent that is causing you symptoms, ...we will work with the person wearing it to reduce the scent." - also im zweifel ist dann deo und "body wash" doch wieder okay :D cnr Beantworten
Es weiß doch Niemand wie viele es wirklich sind. Die mittlerweile Uraltstatistiken waren Erfassungen freiwilliger Angaben, was nie wirklich präzise sein kann. Ansonsten können die Adalistas natürlich machen was sie wollen, wenn Organisatorinnen und Teilnehmerinnen das wollen. Doe Probleme lagen anders. Problematisch war (alles natürlich immer in meinen Augen), daß Ada als Gast von WMDE WMDE Vorschriften machte, wie bestimmte Dinge zu halten sind. Nur weibliche Mitarbeiter vor Ort, diese mußten sich auch an all die Vorschriften halten und sowas halt. Wenn ich aber Gast bin (und ich vermute kostenfrei), bin ich aber eher dankbar, als daß ich Vorschriften mache. Ich selbst war am Freitag in der Geschäftsstelle. Um 18.00 Uhr ging die Ada-Veranstaltung los. Mir wurde durch die Blume gesagt, es wäre gut, wenn ich vorher weg wäre. Auch die männlichen Mitarbeiter packte ab 16.00 Uhr eine gewisse Unruhe (meine Wahrnehmung). Selten - nein, nie - fühlte ich mich so unwohl an einem solchen Ort und war froh, früh genug weg zu sein. Ich bin generell nicht gerade der Meinung, daß es eine Gleichberechtigung der Geschlechter ohne die Männer geben könnte. Nicht weil die Frauen zu doof oder zu schwach sind - sondern weil beide Teile der Menschheit einfach dazu gehören. Man stelle sich vor, heute würde eine Organisation nur Männer zulassen. Zurecht wäre das ein Ziel für emanzipatorische Kritik. Ebenso wenig kann es aber gut sein, wenn sich Frauen von den Männern separieren. Separatismus und Cliquenbildung ist der falsche Weg. Und das ist auch nichts, was ein Verein wie WMDE unterstützen sollte. Und nach allem was ich bislang hörte ist man letztlich selbst nicht besonders glücklich damit, wie das lief und in der Form wird man so etwas wohl nicht mehr mitmachen. Ärgerlich lief es mit dem Treffen der Redaktion Chemie. Das war ein menschlicher Fehler, als der Termin vergessen wurde einzutragen (nebenbei - das Ada-Camp war zuerst angemeldet). Daß sich Ada sperrte, auch nur Männer am gleichen Veranstaltungsort zu haben ist ein weiter Baustein des schon oben beschriebenen Problems. Als Gast hat man sich anders zu benehmen. Somit mußte die Redaktion an einen anderen Ort tagen. Was noch einmal zu eigentlich unnötigen Mehrkosten führte. Das Traurige: ich sehe nicht, wie all das dazu führen sollte, daß mehr Frauen im naturwissenschaftlich-technischen Bereich im Bereich des freien Wissens und anderer freier Bereiche heran geführt werden. Denn hier würden sie auch auf Männer treffen. Marcus Cyron Reden 23:18, 15. Okt. 2014 (CEST)Beantworten
oh cool; gegen sexuelle diskriminierung indem man sexuell diskriminiert. Klingt ja witzig.
"Die mittlerweile Uraltstatistiken" - und ich dachte inzwischen wäre mal sowas wie eine vernünftige zielplanung gemacht worden. ... aber vermutlich hat wikimedia angst das rauskommt; viel aufwand und trotzdem kommen nicht mehr frauen. Nunja. schade aber danke
...Sicherlich Post 23:26, 15. Okt. 2014 (CEST)Beantworten
Könnte sogar so sein, daß man deshalb keine Statistiken mehr erhebt, weil man dann sehen würde, daß all der Aufwand nicht viel fruchtete. Noch eher ist es wohl aber so, daß mit Lila Tretikov der Schwerpunkt woanders hin wanderte. Alle "Soft skill"-Projekte von Sue Gardner haben nicht das gewünschte Ergebnis erzielt. Somit legt man eben den Schwerpunkt auf Software. Marcus Cyron Reden 23:31, 15. Okt. 2014 (CEST)Beantworten
Find ich doch gut, solche Offenbarungsveranstaltungen, ist wie, als ob hier den "Schlagenden" nachgeeifert wird. Dort durfte und darf man halt nur betrunken antanzen, zerschnittene Gesichter waren und sind eindruckerweckend und für die Karriere förderlich, Gegröhle wird für Kommunikation gehalten und Frauen waren auch nicht zugelassen. Dazu kam noch, dass der Nachwuchs sich den alten Herren unterwürfig zeigen musste. Einfach ein paar Parameter geändert und schon ist´s fast dasselbe. Das Einzige was mir gefällt ist: Don´t wear perfume.--Hubertl (Diskussion) 23:34, 15. Okt. 2014 (CEST)Beantworten
<quetsch>Hätte ich geahnt, das ausgerechent jetzt eine lex-4711 aufploppt, hätte ich mir die Mühe mit dem freundlich gemeinten 4711-Wunderwasser-Duft für die WikiCon-Teilnehmertaschen sicher geklemmt. Aber das zeigt eindrucksvoll, dass man nie weiß, aus welcher Richtung die Nackenschläge kommen...Aber: Ich war tatsächlich schon einmal auf einem (naturwissenschaftlichen!!) Workshop, in dem ein Parfümierverbot ausgesprochen wurde. Scheint irgendwie als ein generelles gesellschaftliches Problem zu sein/werden...aber keine Seife, kein Duschgel und kein "Weichspüler" ist selbst mir neu..und stelle mir ganz praktische Fragen, die mir nicht mal die alten Römer beantworten können...die hatten schließlich einen Strigilis und diverse Duftöle. --Geolina mente et malleo 01:49, 16. Okt. 2014 (CEST) </quetsch>Beantworten
@Geolina163:: Ich hatte die Probe erst daheim beim Auspacken gefunden, und hatte mich sehr gefreut! --DaB. (Diskussion) 15:13, 17. Okt. 2014 (CEST)Beantworten
@Geolina163:: Ich habs auch erst zu Hause gemerkt, speziell das es ja noch nach Düften für Herren und Damen getrennt war und das passend zur Anmeldung - eine ganz tolle Aktion. --Jörgens.Mi Diskussion 16:37, 17. Okt. 2014 (CEST)Beantworten
Ich vermute, die Namenspatronin hätte sich über die Allüren ihrer Möchtegern-Epigonen kaputtgelacht. Die hatte mit Männern nämlich überhaupt keine Probleme. Weder fachlich noch sonstwie. -- Janka (Diskussion) 23:39, 15. Okt. 2014 (CEST)Beantworten
Die Namenspatronin siehe unter "Ada Lovelace"! Verlinkung muss auch mal sein. MfG Arieswings (Diskussion) 23:48, 15. Okt. 2014 (CEST)Beantworten

Hmm, an was erinnert mich das nur? Fassen wir mal zusammen:

  • Grundannahme der Ideologie: Frauen sind grundsätzlich brunzdumme Hasumütterchen, haben kein Selbstbewusstsein, können nicht für sich denken und sprechen; und mögen es wenn ihre Umgebung nach altem Schweiß müffelt (wtf!).
  • Sinnlose Regeln werden mit einer an Bessenheit nicht zu toppenden Detailverliebtheit erdacht.
  • Deren Einhaltung soll ein ausgefeiltes Spitzel- und Denunziantenwesen überwachen.
  • Bei Verstößen -> Ab ins Lager, ähm naja noch nicht, aber wir arbeiten dran!

Das ist Naziherrschaft 2.0. WB Ein Leben ohne Katzen ist möglich, aber sinnlos. 06:49, 16. Okt. 2014 (CEST)Beantworten

Ich will dem über mir stehenden Beitrag WB nicht umfassend zustimmen, aber die Tendenz spricht mich schon an. Abgesehen davon, dass es mich verwundert, dass ein solcher Regelkatalog vorgelegt wird (erinnert mich allerdings mehr an Kehrwoche als an was anders, womit wir wieder beim "Hausmütterchen" wären), finde ich diese Aufforderung, Teilnehmer zu "verpetzen" wirklich abstossend. Benutzer:Hubertl - die Argumentation, Männer machen aber das und das, finde ich nicht hilfreich: dumme Sachen muss man nicht nachmachen.
Ansonsten las ich den Beitrag von Marcus mit Grauen und gebe ihm recht. Die ganze Angelegenheit zeigt meiner Meinung nach fast sektierische Züge, und das sollte WMDE nicht unterstützen. Ich persönlich lehne aus den Gründen, die Marcus oben genannt hat, Veranstaltungen, die nur für Frauen gedacht sind, ab (ganz schlimm: Damensauna... *scherz*) . Seit ich nicht mehr in Still-, Krabbel- und sonstige Kindergruppen gehen muss, habe ich von reinen Frauenrunden eh genug :) -- Nicola - Ming Klaaf 07:20, 16. Okt. 2014 (CEST)Beantworten
In eben jener Ideologie, der offensichtlich nachgeeifert wird, war genau jenes "Hausmütterchen" das Idealbild der Frau. WB Ein Leben ohne Katzen ist möglich, aber sinnlos. 09:53, 16. Okt. 2014 (CEST)Beantworten
Ich dagegen möchte WB hiermit für einen Godwin Award in Gold nominieren. ;) Einen schönen Tag für alle wünscht --Siesta (Diskussion) 07:27, 16. Okt. 2014 (CEST)Beantworten
Kannst von mir auch Sozialismus, Kommunismus, Chuche oder irgendeine andere beliebige menschenverachtende Ideologie nehmen. Das passt zu allen. WB Ein Leben ohne Katzen ist möglich, aber sinnlos. 09:53, 16. Okt. 2014 (CEST)Beantworten

Wenn die Schilderungen oben stimmen, was ich nicht anzweifle, will ich mit diesem radikalisitischen, blockwarmentalitätshaltigen Methoden nichts zu tun haben. Es ist eine Schande das der Name der tollen Mathematikerin von Ada Lovelace dafür missbraucht wird. Ich vermute das noch nicht mal Alice Schwarzer was mit denen gemein hat. Ich gehe davon aus und erwarte, das Wikimedia Deutschland sich freundlich aber deutlich von solchen Tendenzen absetzt und keine weiteren Veranstaltungen dieser ... Gruppierung in irgendeiner Form unterstützt. Für mich wäre es ein Grund an Veranstaltungen nicht teilzunehmen. --Jörgens.Mi Diskussion 09:09, 16. Okt. 2014 (CEST)Beantworten

Wie immer wieder gern also die Retourkutsche angespannt uns drauflos! – Das ist mein Eindruck von der Diskussion hier. Hat irgendwer der Kritiker mal drüber nachgedacht, dass es Teilnehmerinnen gibt, die nur deshalb teilnehmen, weil eben kein Mann da rumläuft, der zudem noch parfümiert ist? Weil nur Teilnehmerinnen da sind, die so aussehen, wie sie aussehen? Letztlich wirkt es einem auch hier anzutreffenden Schubladendenken entgegen.

Davon abgesehen ist mir nicht bekannt, dass Angemeldete Benutzer ihr Geschlecht angeben müssen, und das auch noch wahrheitsgemäß. Woher also sollen dann Zahlen stammen, die dieses Recht auf Anonymität wahren?

Die ZEIT hatte gerade einen schönen Artikel zu den „neuen Männern“, die sich diskriminiert fühlen; ich habe den Eindruck, von denen laufen hier einige rum und posaunen ihr Rechtsverständnis gern als einzig mit dem gesunden Menschenverstand vereinbar hinaus. 217.9.49.1 09:57, 16. Okt. 2014 (CEST)Beantworten

Falls es Dich tröstet oder das Ungleichgewicht wieder ausgleicht: Ich (zweifelsohne weiblich) hätte absolut keinen Bock auf eine Veranstaltung mit Ada-policies zu gehen. Ich würde allerdings auch niemandem vorschreiben wollen in welcher Umgebung er (oder sie) sich wohlzufühlen hat. Wenn diese oder irgendwelche Frauen das gut finden und so wollen: Na bitte, sollen sie doch! Und WMDE hin oder her: Bei Community-Veranstaltungen gleich welcher Art und Größe bestimmt die Community wie sie das ausgestaltet (oder meinethalben reglementiert) haben will – nicht WMDE und nicht eine Ada-Initiative. --Henriette (Diskussion) 10:15, 16. Okt. 2014 (CEST)Beantworten
Du musst nicht mich trösten, sondern die über meinem Beitrag Schreibenden... dort findet sich Gejammer über das "ausgeschlossen sein" inklusive eines unerträglichen Nazivergleichs. Ich bin selbst Mann, hätte nicht teilnehmen dürfen, fürchte aber auch nicht, dass dort die Weltrevolution geplant und angestoßen wird. Andere mögen das anders sehen. 217.9.49.1 11:45, 16. Okt. 2014 (CEST)Beantworten

Wir sollten uns über solche, ich nenne sie mal Auswüchse nicht wundern. Je nach dem Personal, dass sich die Foundation einkauft, in diesem Fall war es ja Mrs. Gardner, können halt nun mal gewisse Schieflagen entstehen. Die kommen zustande, weil sich in dem Projekt Wikimedia, das sich ja immer noch in der leicht instabilen Phase des Ausprobierens befindet, auch Leute tummeln dürfen, die 'nen leichten Hau haben. Das ist interessant, lässt es doch einen Blick auf den jeweiligen Zustand Wikimedias zu, und bietet Anlass zu Kritik und Spott. Immer, wenn gesicherte Inhalte fehlen, erscheinen nun mal Wunderheiler, Sektierer und Schamanen. Die Foundation gibt in ihrer amerikanisch-liberalen Haltung zeitweise eben auch solchen Leuten ein Forum. Dass die versuchen ihre Ideologie auch hier in good old Europe zu verbreiten, ist logisch. Ist aber alles harmlos, solange deren Policy nicht vorschreibt, beispielsweise 'ne Fümunvierziger mit sich rumzuschleppen. --Schlesinger schreib! 10:53, 16. Okt. 2014 (CEST)Beantworten

Ich habe ja noch nie etwas von der Initiative gehört und die (bislang soweit ersichtlich unbestätigte) Schilderung von Marcus Cyron oben klingt eher spooky, gebe aber zu bedenken, dass sich der Kurier-Artikel im Vergleich mit der tatsächlichen Policy irgendwie schon durch einen sehr freien Umgang mit den Fakten auszeichnet …
1) Dass Rauchen „im Gebäudevorfeld“ untersagt wäre, ist eine höchst freie Wiedergabe von „Please do not smoke near entryways and other common areas.“ Dass auch in öffentlichen Gebäude regelmäßig darum gebeten wird, doch bitte nicht direkt vor dem Eingangsbereich zu rauchen, ist ebenfalls gängig, hier steht überhaupt nichts von irgendeinem großflächigen Rauchverbot im gesamten „Gebäudevorfeld“, wie der Kurier-Artikel behauptet. (Und ja, dass darum gebeten wird, dass sich Raucher die Hände waschen, halte ich ebenfalls für übertrieben.)
2) Teilnehmer werden nicht „darum gebeten, keine Duftstoffe zu verwenden, Deodorants oder Shampoos mit Duftstoffen“ und es gibt auch keine „Duftstoff-Verbotsliste“. Tatsächlich steht in der Policy sogar explizit „we don’t ask attendees to be fragrance-free“. Es wird darum gebeten, auf „significant amounts“ zu verzichten, und das kann man sich als Teilnehmer nun wirklich auch ein bisschen so zusammeninterpretieren wie es beliebt. Die angebliche „Duftstoff-Verbotsliste“ ist Teil folgendes Hinweises: „Keep in mind that laundry detergent, clothes softener, soap, body wash, deodorant, shampoo, conditioner, lotion, hair products, cologne and perfume may all have fragrances that can affect people with these sensitivities. If someone is wearing a scent that is causing you symptoms, please let an Ada Initiative representative know and we will work with the person wearing it to reduce the scent.“ – Kurzum: Hier wird um Verständnis für diejenigen geworben, die wirklich ein konkretes gesundheitliches Problem aufgrund deines konkreten Deos/Weichspülers haben. Die Aussage ist ja wohl eine Selbstverständlichkeit, oder möchte der Kurierautor auf seinem Recht beharren, irgendein bestimmtes Produkt in der beabsichtigten Menge anzuwenden, wenn sein/seine Nebensitzer/-in davon in Ohnmacht fällt?
3) Falsch ist schließlich die Behauptung, es würde zum Melden von Verstößen dagegen aufgerufen, die dann auch noch dazu führen sollen, dass Teilnehmende „ohne Anspruch auf Erstattung aus den Veranstaltungsräumlichkeiten verwiesen werden“ können. Die Policy hat vier „Unterpolicies“: Eine heißt „Photography/video/audio recording policy“, eine heißt „Reporting/blogging/social media policy“, eine „Scent and smoking policy“ und eine „Anti-harassment policy“. Die Ermuterung zum Melden von verstößen steht in der „Anti-harassment policy“, wobei sie „harassment“ definieren als „Harassment includes offensive verbal comments related to gender, sexual orientation, disability, physical appearance, body size, race, religion, or other protected class status, sexual images in public spaces, deliberate intimidation, stalking, following, harassing photography or recording, sustained disruption of talks or other events, inappropriate physical contact, and unwelcome sexual attention“. Nirgendwo steht irgendetwas davon, dass sich das in der Schärfe auf irgendwelche Raucher oder Parfümierte beziehen würde.
grüße, — Pajz (Kontakt) 11:06, 16. Okt. 2014 (CEST)Beantworten

Warum nur sehe ich bei 2) Bilder eines nackten Teilnehmers der mit einem C-Rohr mit kaltem Wasser abgespritzt wird?!? Im Hintergrund die brennende Kleidung und der orange Overall (garantiert unparfümiert) liegt schon bereit... WB Ein Leben ohne Katzen ist möglich, aber sinnlos. 13:03, 16. Okt. 2014 (CEST)Beantworten
Habe mal gehört, dass auf Champgnerflaschen in den USA der Warnhinweis steht, dass man bei Öffnen der Pulle diese nicht auf sein Auge richten soll, oder so ähnlich. Will man man mit solchen Policies irgendwelchen Schadenersatzklagen vorbeugen, wenn beispielsweise ein Deo- oder Patschuliopfer tot umfällt? --Schlesinger schreib! 11:19, 16. Okt. 2014 (CEST)Beantworten

(BK) Dass Feministinnen auf reinen geschützten Frauenveranstaltungen keine Männer dabeihaben wollen, sollte man imho auch als Mann hinnehmen können, wenn das vorab mit dem Raumvermieter nicht vernünftig kommunziert war, ist da wohl organisatorisch was schiefgelaufen. Und dass man sich auf einer Feministinnenveranstaltung sexistische Sprüche und anderes Harassment besser verkneift sollte einem ohnehin der Hausverstand sagen. Veranstaltungen nur für Frauen gibt es imho seit es Feministinnen gibt, das ist keine Erfindung von Ada. Wenn ich persönlich Wert auf reine Frauendiskussionen legen würde, wäre ich in der wp aber (aktuell) vermutlich falsch. Die schrecklichen Maßregelungen bzgl. Scents lesen sich für mich im Originaltext weit weniger dramatisch als hier im Artikel zugespitzt: Bitte nicht in Parfum baden und wenn jemandem die Augen tränen soll er sich bitte melden, bevor er umfällt. --Ailura (Diskussion) 11:08, 16. Okt. 2014 (CEST)Beantworten

Vielen Dank an Pajz für seine klärenden Worte. Mich irritiert schon die aggressive Reaktion zahlreicher Diskussionsteilnehmer auf den sehr schlichten Wunsch der Frauen, sich unter sich zu treffen. Wenn ich die Parolen höre, die Frauen dürften sich nicht "separieren" und müssten sich als Gäste fühlen und benehmen, krieg ich schon einen Flashback. Genau denselben Kram habe ich vor 30 Jahren auch schon gehört, vorzugsweise von Männern, die eigentlich nicht im Traum daran denken, eine solche Veranstaltung zu besuchen, aber offenbar furchtbare Angst kriegen, wenn "die Frauen" etwas besprechen, was sie nicht mitkriegen und kontrollieren können.
Natürlich muss ich die "Policies" nicht mögen, und ich mag sie auch nicht. Ich halte wenig von der Neigung, alles, was irgendeine Teilnehmerin stören könnte, mit sanftem Druck zu verbannen. Aber na und? Ich bin (als Mann) nicht Adressat der Veranstaltung und auch in keiner Weise daran interessiert, an dieser Veranstaltung teilzunehmen. Warum sollte ich oder sonst irgendwer den Organisatorinnen Vorschriften machen? Dass mit solchen Policies der Kreis der Adressatinnen (weibliche Form mit voller Absicht gewählt) stark eingeschränkt wird, ist schade, aber es ist nicht meine Sache, die hier verhandelt wird.--Mautpreller (Diskussion) 11:24, 16. Okt. 2014 (CEST)Beantworten
Interessant. In einem einzigen Beitrag erzählst du mir, daß mir Kritik nicht zusteht, daß aber natürlich Jeder seine Meinung haben darf. Marcus Cyron Reden 13:47, 16. Okt. 2014 (CEST)Beantworten
Dass "jeder seine Meinung haben darf", versteht sich ja wohl von selbst, dazu braucht niemand eine Erlaubnis. Und natürlich "steht Dir Kritik zu", bloß halte ich sie für reichlich abgestandene Parolen in eigentümlicher Schärfe.--Mautpreller (Diskussion) 14:22, 16. Okt. 2014 (CEST)Beantworten
Ich bin KEIN Mann :) -- Nicola - Ming Klaaf 11:43, 16. Okt. 2014 (CEST)Beantworten
Aber Du interessierst Dich auch nicht für die Veranstaltung, Du willst da gar nicht hin. Na dann ist doch alles bestens, niemand verlangt etwas von Dir, was Du nicht willst. Kein Grund zur Aufregung.--Mautpreller (Diskussion) 11:57, 16. Okt. 2014 (CEST)Beantworten
Wer regt sich auf? Ich habe lediglich meine Meinung dazu geäußert, was ja wohl erlaubt sein sollte. Oder fällt das jetzt auch unter irgendeine Policy? -- Nicola - Ming Klaaf 12:16, 16. Okt. 2014 (CEST)Beantworten
Ich bin sicher, da kann eine/r sich was passendes hineininterpretieren. fz JaHn 12:24, 16. Okt. 2014 (CEST)Beantworten


Ich verstehe die Aufregung hier überhaupt nicht. An diesen "Policies" ist überhaupt nichts bemerkenswertes. Selbst das Gequatsche darüber ist völlig vorhersehbar, wenn man versucht, über immer noch feiner definierte Regeln Konflikte schon im Vorneherein auszuschließen. Das ist auch nicht frauenspezifisch oder emanzenspezifisch, das ist einfach inherent durch die Existenz von Regeln angelegt. Ich habe selbst viermal eine mehrtätige Veranstaltung mit 500 quirligen Gästen geleitet und meine Prämisse war da immer "so wenig Regeln wie möglich". Und wisst ihr was? Es wurde niemand verletzt. Nicht mal Gefühle, so weit ich das mitgekriegt habe. Es geht also auch mit einem Minimum an Regeln. Umgekehrt weiß ich aber auch von anderen Veranstaltungen mit demselben Publikum, bei denen es tonnenweise Regeln gibt, überbordenes Gequatsche über diese und genug Leute, die anderen ihre Macht demonstrieren müssen, indem sie auf ebendiese Regeln verweisen. Die Veranstaltung wird dadurch nicht besser. (Ich gebe allerdings zu, dass auch ich diese Leute gerne auflaufen lasse, indem ich die Regeln besser kenne als sie.) -- Janka (Diskussion) 12:55, 16. Okt. 2014 (CEST)Beantworten

<quetsch>Diese "andere" Veranstaltung heißt nicht zufällig Wikipedia? Gruß --Magiers (Diskussion) 15:09, 16. Okt. 2014 (CEST)Beantworten

Ich würde ja mal gerne die Empörung und Entrüstung sehen, wenn man es wagte bei einer Wiki-Veranstaltung Frauen wie mich explizit auszuschließen. Wie Welt ginge unter und Claudia Roth würde sich vor einer Schlecker-Filiale selbst verbrennen vor Betroffenheit... WB Ein Leben ohne Katzen ist möglich, aber sinnlos. 13:03, 16. Okt. 2014 (CEST)Beantworten

Wann genau und wodurch ist Dir Dein feiner Humor abhanden gekommen, den ich so geschätzt habe? Seit ein paar Monaten könnte man Dich nicht wiedererkennen ohne die Signatur. Was ist passiert? Deinen Vergleich mit Nazi etc. solltest Du besser streichen als verteidigen - das wäre groß statt peinlich. 217.9.49.1 13:20, 16. Okt. 2014 (CEST)Beantworten
Feiner Humor? Ich?!? Ich glaube Du verwechselst mich mit jemandem. WB Ein Leben ohne Katzen ist möglich, aber sinnlos. 13:58, 16. Okt. 2014 (CEST)Beantworten
Die IP meint, du als Frau - du kannst doch nicht so direkt... - das muß doch viel Feinsinniger sein! Frauen sind doch so und nur so! Wissen doch alle. Frauen immer nett, Männer immer böse. Das ist doch so wie es nur sein kann, quasi natürlich. Alles andere kann gar nicht sein! Marcus Cyron Reden 14:01, 16. Okt. 2014 (CEST)Beantworten
Geht ja doch noch! :-) 217.9.49.1 14:23, 16.Okt. 2014 (CEST)

Dies ist wieder eine dieser Diskussionen wo man sicher ist a) die anderen kapieren es einfach nicht oder wollen es nicht kapieren - dabei ist es doch sowas von offensichtlich, b) deren Mittel sind falsch dosiert oder c) meine Mittel sind falsch dosiert. WB Lächele, denn Du kannst Sie nicht alle töten. 06:23, 17. Okt. 2014 (CEST)Beantworten

Gegen Veranstaltungen nur für Frauen ist ja generell nichts einzuwenden. Wenn es allerdings so weit geht, dass Männer auch im "Dunstkreis" nicht erwünscht sind und die sich unwohl fühlen, kann ich das nicht für gut befinden, und so etwas ist für mich auch nicht mit den Grundsätzen der WP vereinbar - und das darf ich sagen, ob ich an einer solchen Veranstaltung teilnehmen möchte oder nicht.
Wenn in der Tat Männer überhaupt nicht mehr in denselben Räumlichkeiten erwünscht sind, erinnert mich das, mit Verlaub, fatal an die Geschlechtertrennung in muslimischen Ländern (wo ich mich öfter aufhalte). Ich wünsche mir nicht, dass so etwas noch stärker in unseren Breiten Usus wird, wo schon eine gewisse Prüderie zunehmend Fuß fasst. -- Nicola - Ming Klaaf 16:12, 17. Okt. 2014 (CEST)Beantworten
+1 zum „Dunstkreis“, Janka und Pajz. Es lässt sich mit Räumlichkeiten flexibel umgehen. Eine andere Kritik: Das Projekt schreibt sich „Gender Diversity“ auf die Fahnen, von Trans- und Inter-Personen als Zielgruppe ist auf der Website jedoch nichts zu lesen (werden Leute wmgl. per Geschlechtsangabe auf dem Pass ausgeschlossen? Nach Bewerbungsfoto?). Dann wird Frauen vorgeschrieben, keine „sexual language and imagery“ zu verwenden und damit gleich jede Möglichkeit ausgeschlossen, einen feministischen, offenen Umgang damit zu finden. Es geht bei der Veranstaltung ums Geschlecht in der Gesellschaft, auf Sex darf aber nur in eng reglementiertem Rahmen verwiesen werden, sonst fällt es unter „harassment“. --Chricho ¹ ³ 12:04, 18. Okt. 2014 (CEST)Beantworten
Wie ich schon schrieb: Es gibt Leute, die haben einen naiven Glauben, dass die Welt ein besserer Ort wäre, gäbe es nur für alles verbindliche Regeln. Die einfach nicht sehen können oder wollen, dass ihre Regeln andere nicht interessieren und es nur deshalb nicht zu Konflikten kommt, weil es übergeordnete *ungeschriebene* Regeln gibt (z.B. die des geringsten Aufsehens, die, Ärger aus dem Weg zu gehen, ganz allgemein die des gesunden Menschenverstandes), die der einzeige Kompass sind, an den sich die Leute wirklich halten. Das einzige, wozu diese feineren Regeln, die sich eh kein Arsch außer den Regelfetischisten reinzieht, dienen, ist eben diesen Regelfetischisten einen Nimbus von Wichtigkeit zu verleihen. Egal ob man nun für oder gegen irgendwelche Regeln ist, ich bin dafür, diese Leute einfach in ihrer Kindergartenwelt zu belassen und ihre Einwürfe nicht einmal zu kommentieren.
Inhaltlich: Wenn ich mal dringend muss und das Herrenklo ist zugeschissen, dann zögere ich auch keine Sekunde, das Behinderten- oder Damenklo zu verwenden. Wer mich davon abhalten will, kriegt den Haufen direkt auf die Schuhe. -- Janka (Diskussion) 20:26, 18. Okt. 2014 (CEST)Beantworten
Die Regeln muten schon sonderbar an. Unabhängig davon würd mich interessieren, was inhaltlich dahinter steht. Es kann ja durchaus sein, dass hinter einem erstmal merkwürdigem Regelwerk gute inhaltliche Arbeit geleistet wird, andererseits kann es sein, dass ein besonders ausgeklüngeltes Regelkonstrukt inhaltliche Schwachstellen überdeckt. Da würde ich gern mehr erfahren. --Belladonna Elixierschmiede 20:36, 18. Okt. 2014 (CEST)Beantworten
Ja, guter Ansatz. Marcus Cyron Reden 11:33, 19. Okt. 2014 (CEST)Beantworten

Benutzer mit einem Account bei Bugzilla: Achtung!

Scheitere gerade am Einrichten des Phabricator Accounts:

  • Schritt 1 über OAuth  Ok (nachdem ich zuerst lange versucht habe, mich mit meinem SUL Account über das LDAP Formular anzumelden) - die Beschreibung könnte hier klarer sein.
  • Schritt 2: Adresse war vorausgefüllt, hätte aber was einfügen können
  • Schritt 3: Abschnitt "MediaWiki" habe ich keinen gefunden, zumindest keinen, wo ich was eintragen könnte. Dort steht aber ein MediaWiki OAuth1 Account mit einem Link auf https://www.mediawiki.org:/w/index.php?title=User%3AHerzi%2BPinki, was insoferne blöd ist, als der Link der falsche ist, korrekt wäre https://www.mediawiki.org:/w/index.php?title=User%3AHerzi_Pinki
  • Schritt 4: der Link auf meiner Profilseite hingegen funktioniert.

Wollte jetzt dafür gleich einmal einen Bugreport im Phabricator schreiben, …

  • Im Ernst, ist das korrekt, was ich gemacht habe?
  • Kann man die Beschreibung so ändern, dass sie dem Ablauf besser entspricht?
  • Wie kann ich den Link auf mypage auf Schritt 3 korrigieren? Oder ist der wurscht?
  • Vielleicht sollte die Beschreibung auch an zentralerer Stelle stehen als im Kurier, wo sie irgendwann verschwindet?
  • kann jemand mein Profil checken? erledigtErledigt passt offenbar

lg --Herzi Pinki (Diskussion) 00:15, 16. Okt. 2014 (CEST)Beantworten

Bei Schritt 3 weiß ich auch nicht, was damit genau gemeint ist.
Das mit dem falschen Link zum Profil ist phab:T574 --se4598 / ? 00:42, 16. Okt. 2014 (CEST)Beantworten
Auf https://phabricator.wikimedia.org/settings/panel/external/ kann es unter External Accounts eine OAuth-Verbindung zum mediawikiwiki-Konto hergestellt werden. Und das + statt dem _ ist wohl ein kleiner Bug. Grüße, —DerHexer (Disk.Bew.) 12:29, 16. Okt. 2014 (CEST)Beantworten
mir gings auch um die Beschreibung …. Vielleicht mag @Romaine da helfen? lg --Herzi Pinki (Diskussion) 12:59, 16. Okt. 2014 (CEST)Beantworten
Hab den Punkt 3 doch schon umgestellt. ;-) —DerHexer (Disk.Bew.) 13:43, 16. Okt. 2014 (CEST)Beantworten
Sehe wenn Probleme auf: mw:Phabricator/Help und frage auf mw:Talk:Phabricator/Help. Romaine (Diskussion) 21:42, 16. Okt. 2014 (CEST)Beantworten
Wer hat sich nur phabricator-production will Basiszugriff in deinem Namen auf allen Projekten dieser Website haben ausgedacht? Da möchte man nun wirklich nicht bestätigen, dass irgendwer in meinem Namen Zugriff auf irgendwas haben will. NNW 22:30, 16. Okt. 2014 (CEST)Beantworten
Wenn man auf Commons einen Bildnamen verschiebt, gehts auch nicht ohne.--Hubertl (Diskussion) 23:32, 16. Okt. 2014 (CEST)Beantworten
Einen solch verqueren Satz habe ich auf Commons noch nie gelesen. NNW 10:55, 17. Okt. 2014 (CEST)Beantworten

Catscan2 offline

Hmpf. Ich habe damals den Umzug vom Toolserver zu Labs mitsamt den dazugehörigen Diskussionen relativ emotionslos beobachtet. Abwarten und sehen, was kommt, schien mir ohne näheres Detailwissen die beste Variante. Die Hoffnung, dass nun endlich Stabilität einziehen wird, war ja nicht ganz unberechtigt (geraunt wurde ja irgendwo, wenn ich mich recht entsinne, dass das Betreiben von Servern die Kernkompetenz der Foundation sei). Jedenfalls: Gefühlt hat sich wenig bis gar nichts geändert. Der Umzug scheint relativ ergebnislos und somit eine Zeitverschwendung gewesen zu sein. --Mai-Sachme (Diskussion) 16:37, 17. Okt. 2014 (CEST)Beantworten

Zum Tool selbst: Ich finde ja schon lange, wie es Ireas in seinem Beitrag auch angemerkt hat, dass eine "Catscan"-Funktionalität eigentlich Bestandteil von MediaWiki sein müsste. Würde hier endlich mal die Möglichkeit eingebaut, sich direkt in der Wikipedia komfortabel seine gewünschte Kategorien-Schnittmenge zusammenzuklicken ("zeig mir alle weiblichen Schriftsteller aus den Niederlanden zwischen 1850 und 1900"), wäre das ein wesentlicher Schritt in der Benutzerfreundlichkeit sowohl für reine Leser als auch die Autoren. Und unser seit Jahren verfolgter "Facetten"-Ansatz würde endlich seinen wahren Sinn erhalten - und die englische Wikipedia könnte vielleicht mal damit aufhören, unmöglichste präkombinierte Kategorien wuchern zu lassen (was ja einfach eine Notlösung in Ermangelung einer bequemen Kombinierbarkeit ist). Gestumblindi 22:31, 17. Okt. 2014 (CEST)Beantworten
+1. Aber die Kapazitäten werden eben für Wichtigeres gebraucht. Wenn man den Bereich leitet, kann man sich ein Tool basteln lassen, mit denen man alle demokratischen Prozesse der Projekte unterläuft und wunderbar diktatorisch alles abstellt, was einem Zuwider läuft. Und wieder erscheint mir Richard Heigls Ansinnen von der WikiCon sehr verlockend: Umwandlung der MediaWiki-Software in eine wirklich freie Software, auf der nicht die WMF sitzt. Wenn wirklich all die Leute die das könnten frei mitwirken könnten ohne daß in Frisco ihnen Jemand dazwischen funkt, gäbe es wahrscheinlich schon viel mehr funktionelle Helfer und Prozesse. Marcus Cyron Reden 00:05, 18. Okt. 2014 (CEST)Beantworten
Soviel ich weiss, ist MediaWiki freie Software - quelloffen, unter der GPL. Im Prinzip kann jeder MediaWiki umschreiben und um Funktionalitäten ergänzen. Aber sollte die WMF etwas nicht in "ihrem" MediaWiki wollen, wäre das dann wohl ein "Fork". Wobei ich nicht denke, dass sie gegen eine Catscan-Funktionalität wäre, ich habe noch nie gehört, dass irgendjemand dagegen wäre... das heisst aber natürlich noch nicht, dass sie auch aktiv daran arbeiten würden, wie man an deren Abwesenheit sieht... Gestumblindi 00:14, 18. Okt. 2014 (CEST)Beantworten
Allerdings gibt es praktische Probleme, wenn man als Otto-Normal-Entwickler etwas zu MediaWiki beisteuern will. Beispielsweise muss Code durch von der WMF beauftragte Leute abgesegnet werden, bevor er aufgenommen wird. Dieses Review kann sich eine Weile hinziehen. Ich habe schon von mehreren Leuten gehört, die deswegen frustriert mit MediaWiki-Entwicklung aufgehört haben. Bei so großen Projekten wie einem MediaWiki-Catscan wäre das noch viel extremer. Grüße, ireas (Diskussion) 00:26, 18. Okt. 2014 (CEST)Beantworten
Und wer soll das Review in Zukunft machen? Du? Würdest du die Verantwortung übernehmen wollen, ob durch eine Software-Änderung die Sicherheit und Stabilität der Website weiterhin gewährleistet ist. Bist du bereit, den Shitstorm durchzustehen, wenn Wikipedia abkackt, nur weil du beim Reviewprozeß nicht sorgfältig genug warst. Wäre natürlich wunderbar wenn hier irgendwelche Historiker, Archäologen, Psychologen und Soziologen Software-Erweiterungen durchwinken und dann die ganze Website abkackt, weil sie so verbuggt ist, dass das nix mehr geht. Dann wäre natürlich wieder niemand verantwortlich, weil ja die Community entschieden hat. Es ist immer schön, auf der einen Seite Entscheidungen treffen zu wollen und andererseits keine Verantwortung übernehmen zu müssen. Liesel 07:45, 20. Okt. 2014 (CEST)Beantworten

Ich lade alle ein, meinen Klon unter toollabs:catscan3/catscan2.php zu testen, um zu sehen, ob, wie und wann das Tool abstürzt. — Giftpflanze 00:19, 18. Okt. 2014 (CEST)Beantworten

Ich habe übrigens ähnliche Probleme wie Magnus bei toollabs:pb, nur in geringerem Ausmaß. ireas (Diskussion) 00:24, 18. Okt. 2014 (CEST)Beantworten
Musst du dann webservice start oder restart machen, ireas? — Giftpflanze 01:01, 18. Okt. 2014 (CEST)Beantworten
Habe gerade getestet und eine Fehlermeldung bekommen. Parameter waren: Language de, Depth 10, Categories Diplomat, Negative categories Person nach Staatsangehörigkeit, der Rest auf Voreinstellung. 85.212.15.192 00:30, 18. Okt. 2014 (CEST)Beantworten
Dito, hier die Fehlermeldung. ireas (Diskussion) 00:32, 18. Okt. 2014 (CEST)Beantworten
Habs grad behoben. — Giftpflanze 00:38, 18. Okt. 2014 (CEST)Beantworten
Goil, funzt ja besser als zuvor, sauschnell ein lächelnder Smiley , btw. Merci vielmals --Herzi Pinki (Diskussion) 02:10, 18. Okt. 2014 (CEST)Beantworten
Danke auch meinerseits! --ManfredK (Diskussion) 09:46, 18. Okt. 2014 (CEST)Beantworten
Warum kriegt Giftpflanze das hin und Magnus nicht? 85.212.32.88 11:08, 18. Okt. 2014 (CEST)Beantworten
Es wird einfach daran liegen, dass die Zugriffszahlen sehr viel niedriger sind. — Giftpflanze 11:18, 18. Okt. 2014 (CEST)Beantworten
"Fatal error: Allowed memory size of 100663296 bytes exhausted (tried to allocate 80 bytes) in /data/project/catscan3/public_html/catscan2.php on line 745 Call Stack: 0.0059 1796656 1. {main}() /data/project/catscan3/public_html/catscan2.php:0 0.3596 1873896 2. CatScan->runQuery() /data/project/catscan3/public_html/catscan2.php:1721 0.5225 1888952 3. CatScan->getCombinationTempTable() /data/project/catscan3/public_html/catscan2.php:1046 11.8761 100610536 4. mysql_fetch_object() /data/project/catscan3/public_html/catscan2.php:745". Bei Categories:Fluss in Europa, Show redlinks, Show top categories in result articles tritt diese Fehlermeldung auf. Normale Fehlermeldung. Oder ? --XPosition (Diskussion) 13:08, 18. Okt. 2014 (CEST)Beantworten
Bei Categories:"Gemeinde" und "Show top categories in result article" gibt es eine nette Notiz. --XPosition (Diskussion) 13:17, 18. Okt. 2014 (CEST)Beantworten
D.h. es funktioniert? (bei mir zumindest) Das erste ist wohl einfach eine zu große Anfrage … – Giftpflanze 13:24, 18. Okt. 2014 (CEST)Beantworten
Noch die option:show redlinks. Dann kommt ein schier endlos, sich wiederholender stacktrace:"Notice: Undefined index: namespace in /data/project/catscan3/public_html/catscan2.php on line 1671 Call Stack: 0.0059 1795600 1. {main}() /data/project/catscan3/public_html/catscan2.php:0 0.4192 2003216 2. CatScan->out() /data/project/catscan3/public_html/catscan2.php:1722 0.4192 2003216 3. CatScan->doSort() /data/project/catscan3/public_html/catscan2.php:1700 0.4197 2012344 4. usort() /data/project/catscan3/public_html/catscan2.php:1695 0.4197 2012664 5. CatScan->comparePages() /data/project/catscan3/public_html/catscan2.php:0 Notice: Undefined index: title in /data/project/catscan3/public_html/catscan2.php on line 1671 Call Stack: 0.0059 1795600 1." usw. --XPosition (Diskussion) 15:04, 18. Okt. 2014 (CEST)Beantworten
Das Problem ist neu bzw. hat nur sekundär mit der Größe von Abfragen zu tun. Vor einigen Tagen, als ich meinen WikiCon-Vortrag vorbereitete, funzten CatScan-Abfragen über mehr als hunderttausend Unterkategorien mit 35.000 ausgegebenen Artikeln problemlos. --Matthiasb – Vandale am Werk™ (CallMyCenter) 23:30, 18. Okt. 2014 (CEST)Beantworten
Ich habe gerade das memory limit erhöhen lassen, jetzt sollte es so gehen wie früher. – Giftpflanze 23:41, 18. Okt. 2014 (CEST)Beantworten

Mathematik support

Ich habe unter http://lists.w3.org/Archives/Public/www-math/2014Oct/0003.html über die Neuerungen der Mathematik erweiterungen berichtet. Nun suche ich nach Hilfe um die Nutzer über die neuen Möglichkeiten zu informieren. Eine erste Idee war einen Text für einen weniger technischen Text auf folgender Seite zu erstellen: https://www.mediawiki.org/wiki/Extension:Math/Announcement --physikerwelt (Diskussion) 22:38, 17. Okt. 2014 (CEST)Beantworten

Also der Bericht in der Mailingliste sagt doch nur Eingeweihten etwas. Mir jedenfalls ist nach dem Durchlesen völlig unklar, ob und was sich genau für Autoren und Leser ändert. Etwa nach außen gar nichts nur die Darstellung sieht nun einfach besser bzw. wird nun auch inline/im Fließtext schön dargestellt? Oder muss ich als Autor etwas beachten? Ändert sich etwas an der Syntax für mathematische Formeln? Muss der Benutzer etwas in seinen Einstellungen konfigurieren oder nicht. Alle diese für die Benutzer/Leser wesentlichen Informationen fehlen.--Kmhkmh (Diskussion) 23:08, 17. Okt. 2014 (CEST)Beantworten
Besten dank für das Feedback. Auf https://www.mediawiki.org/wiki/Extension:Math/Announcement findet man nun den Entwurf des Announcements für Nutzer.--physikerwelt (Diskussion) 14:01, 18. Okt. 2014 (CEST)Beantworten
Ich denke der Fallback-Pfad könnte noch optimiert werden. Wenn der Browser kein MathML unterstützt, wird ja korrekterweise ein SVG-Bild erzeugt. Wenn man jetzt aber noch MathJax aktiviert hat, wird dessen Rendeing zwar erzeugt (was, da Javascript-Lösung, bei vielen Formeln auf einer Seite deutlich merkbar ist), aber dann trotzdem nicht angezeigt. Der Fallback-Pfad sollte daher wenn MathJax angekreuzt ist besser MathML→MathJax→SVG/PNG sein, oder zumindest sollte bei den Einstellungen ausgegeben werden – entweder textlich oder durch Ausgrauen –, das MathJax bei MathML keine Wirkung hat. --Mps、かみまみたDisk. 14:17, 18. Okt. 2014 (CEST)Beantworten
Für die Autoren ändert sich wohl kaum was. Der Leser bekommt aber eine bessere Ausgabe, indem erst eine MathML-Ausgabe erzeugt, als auch Vektorbilder (falls der Browser MathML nicht unterstützt), was ebenfalls erheblich besser aussieht als die jetzigen PNGs. Ich könnte mir aber vorstellen, das einige wenige Formeln (die eher obskure TeX-Formelsatz-Elemente verwenden) nicht mehr funktionieren werden, wie es auch bei der ähnlichen MathJax-Lösung ist, mit der man ebenfalls schon seit längerem im Fließtext schön dargestellte Formeln hat. --Mps、かみまみたDisk. 14:09, 18. Okt. 2014 (CEST)Beantworten
Naja wenn ich das richtig verstehe ändert sich für Autoren ganz entscheidend etwas, denn wie on Late selkönnen/müssen sie zur "optimalen" Darstellung explizit einen Parameter im <math>-tag setzen. Theoretisch sollten bzw. müsste idealerweise jeglicher im Fließtext auftauchende Formelsatz um den Parameter ergänzt werden, um die verbesserte Darstellung zu erhalten. Da wäre dann eventuell auch ein Boteinsatz sinnvoll bzw. nötig.--Kmhkmh (Diskussion) 14:41, 18. Okt. 2014 (CEST)Beantworten
Wenn man in den Einstellungen MathML auswählt, wird automatisch zusätzlich eine MathML-Formel erzeugt, vollkommen ohne weiteres Zutun eines Autors. Einfach mal in den Einstellungen aktivieren, auf eine Seite mit Formeln gehen und den HTML-Quellcode anschauen, dann sieht man in einem script-Tag gekapselte MathML-Tags. Von daher sieht es für nicht so aus als ob sich für Autoren etwas ändert, genauso wenig wie sich für diese etwas änderte als MathJax eingeführt wurde. --Mps、かみまみたDisk. 16:26, 18. Okt. 2014 (CEST)Beantworten
Der wie sich sich der MathML-Code verhält (sofern MathML aktiviert) wird vom Autor direkt durch das Setzen des des display-Parameters beeinflusst, dazu braucht man auch nicht erst den erzeugten MathML-Code zu untersuchen, das steht in der inzwischen oben verlinkten Erklärung (@Physikerwelt: danke für die prompte Ergänzung, genau das hatte mir oben gefehlt).--Kmhkmh (Diskussion) 20:50, 18. Okt. 2014 (CEST)Beantworten
Obwohl ich weiß, was jede der einzelnen Optionen für sich tut, ist auch mir noch nicht klar, wie das Zusammenspiel MathJax/MathML funktionieren soll? Wenn mein Browser MathML unterstützt gibt es doch eigentlich keinen Grund mehr MathJax zu verwenden? Umgekehrt gibt es, wenn ich MathML verwenden will, auch keinen Grund MathJax aktiviert zu lassen (im Moment verhindere ich damit ja sogar die Darstellung von MathML).
Ich denke hier sollte nicht nur die Ankündigung, sondern auch die Implementation an sich überarbeitet werden, denn jemand der nicht weiß, was MathML/MathJax sind, hat ja gar keine Chance mehr diesen Optionen-Wald zu durchblicken. --Patrick87 (Diskussion) 14:45, 18. Okt. 2014 (CEST)Beantworten
P.S: @Physikerwelt: Bevor du das noch in falschen Hals bekommst und meinst hier wird nur kritisiert an dieser Stelle mal ein riesen Lob für dein Engagement! Sowohl die MathJax- als auch die MathML-Unterstützung sind großartige Entwicklungen! Jetzt fehlen wirklich nur noch die Details (die wir hier diskutieren), wie z.B. eine saubere Beschreibung, sodass auch der Durchschnittnutzer versteht worum es geht und die neuen Features verwenden kann. --Patrick87 (Diskussion) 21:25, 18. Okt. 2014 (CEST)Beantworten
P.P.S: @Physikerwelt: Auf MediaWiki läuft bereits MediaWiki Version 1.25wmf4 und hier scheinen die Einstellungen schon überarbeitet zu sein. MathJax ist nun eine zusätzliche Alternative zu PNG/MathML/etc. und die Texte sind (zumindest ein Bisschen) auf OMA-Verständlichkeit getrimmt. Sehr schön!
Ein anderes Problem das mir jedoch aufgefallen ist: Der neue MathML-Modus scheint die PNG-Grafiken immer als Fallback mitzuladen, auch wenn der Browser MathML unterstützt und diese niemals angezeigt werden. Das erzeugt doch einen beträchtlichen unnötigen Overhead! Hier sollte dringend noch nachgebessert werden, denn schön gerenderte Formeln sind eben nicht alles, einigermaßen schnell und ohne unnützen Bandbreitenverbrauch sollte es auch noch gehen! --Patrick87 (Diskussion) 20:15, 20. Okt. 2014 (CEST)Beantworten

DigiPortA eröffnet am 22. Oktober

Hallo, am 22. Oktober eröffnet das Deutsche Kunstarchiv DigiPortA mit Fotos von Künstlern. „4000 Fotos aus Nachlässen will das Deutsche Kunstarchiv bis zum nächsten Frühjahr ins Internet stellen. 450 davon werden bereits vom 22. Oktober an in einer virtuellen Ausstellung gezeigt - pünktlich zum 50. Geburtstag des Archivs.“ Artikel in der Südwest Presse, Projektbeschreibung. „Das älteste Foto entstand im Jahr 1870“ – es könnte also für uns nutzbares Material dabei sein. Wer nach der Eröffnung einen Kurier-Artikel schreiben mag: gerne! --emha d^b 10:36, 20. Okt. 2014 (CEST)Beantworten

Zombie-Bots vs. Zombie Strippers

Danke, Achim, für diesen schönen Beitrag, der meinen Eindruck bestätigt: Die Bots haben die WP längst übernommen und zum Schauplatz ihrer Machtkämpfe gemacht. Vier Sprachversionen ([9], [10], [11], [12]) werden ja überhaupt nur noch durch Bots geschrieben. Grüße --Thomas Wozniak (HSP) (Diskussion) 10:46, 20. Okt. 2014 (CEST)Beantworten

Wenn man Botmeldungen unkommentiert zurücksetzt, ist das wahrscheinlich auch ein PA...--Pölkky 11:53, 20. Okt. 2014 (CEST)Beantworten
Übernommen haben sie noch nichts und sind zumindest bei uns auch noch Einiges entfernt - aber ein paar bedenkliche Auswüchse sind da durchaus vorhanden, über die man durchaus und zurecht reden sollte. Marcus Cyron Reden 16:50, 20. Okt. 2014 (CEST)Beantworten

"aber nach meinem Verständnis handelt es sich bei dem Schriftlogo um eine nicht-schützenswerte Datei, die Schriftart erreicht sicher keine Schöpfungshöhe und die Nutzung des Schriftzugs verstößt auch sehr wahrscheinlich gegen kein Urheberrecht - was wollen die Zombie-Bots also von mir?" - Da liegt das Problem. Nach dem aktuellsten Urteil des Bundesgerichtshofes in dieser Richtung trifft das nämlich nicht mehr unbedingt ohne weiteres zu. Und da das Urteil erst vor kurzer Zeit erfolgte, gibt es weder darauf basierende Urteile noch Rechtskommentare oder ähnliche Orientierungshilfen, anhand derer man abschätzen könnte, wie hoch die jetzige Messlatte für die benötigte Schöpfungshöhe eigentlich liegt. Hinzu kommt wahrscheinlich außerdem noch, dass innerhalb der dt. Wikipedia eigentlich auch die Rechtslage in Österreich und Schweiz berücksichtigt werden muss/soll - und die österreichiche Rechtssprechung ist in der Hinsicht auch sehr konservativ. Und macht es einen Unterschied, ob die Warnhinweis-Vorlagen jetzt von Bots oder Usern auf Bildbeschreibungs- und Diskussionsseiten geklebt werden? --91.67.96.57 06:18, 21. Okt. 2014 (CEST)Beantworten