Ah yes, a perfectly normal thing to do:
Tesla has also increased security around its factory with security personnel, called “Mobile CCTV Unit” guarding the factory’s fence. Their cars’ hoods are decorated with eyes and their licensed plates read “SAURON.”
Eventuell kann das Luft im Heizkörper sein. Probier mal aus, die Heizung zu entlüften.
Aber: "Normalniveau noch nicht erreicht Auch der Dürremonitor des UFZ zeigt: Es hat in diesem Jahr noch nicht genug geregnet, damit die Grundwasserstände wieder auf Normalniveau steigen konnten - trotz teils so hoher Regenmengen wie seit Jahrzehnten nicht mehr."
Open source and decentralized social network Mastodon has more users than it thought. The service, which competes with X (formerly Twitter) and other newcomers like Threads, Bluesky, Pebble and Spill, had been undercounting its users due to a network connectivity error, according to founder and CEO Eugen Rochko, and actually has 407,814 more monthly active users than it had been reporting previously. The adjustment also included a gain of 2.34 million registered users across an additional 727 servers that had not been counted due to the error.
The issue was impacting the metrics reported on Mastodon’s statistics aggregator on its joinmastodon.org/servers page, which had been undercounting users between October 2 and October 8. This issue has now been resolved, Rochko said. That leaves Mastodon with a total of 1.8 million monthly active users at present, an increase of 5% month-over-month and 10,000 servers, up 12% — a testament to Mastodon’s current upward swing at a time when the nature of X continues to remain in flux.
The latest disruptive move by X owner Elon Musk has seen the company remove headlines from link previews on the platform for aesthetic reasons and to keep users on the site instead of clicking away. The move has angered publishers, some of which suggested they would scale back on posting to X given the declining traffic the network was sending their way as of late. Prior to that, Musk announced he was planning to charge all users a small fee to use X, though it’s unclear how serious his statements were as CEO Linda Yaccarino didn’t seem to be aware of his ideas when asked during an interview. Later, Yaccarino told X debt holders that the company would introduce three tiers of payment plans for the network in an effort to grow revenues. And now, X has been discovered to be running clickbait ads that users can’t block.
That bodes well for Mastodon’s and other competitors’ potential to carve off a few more users from X’s larger user base if they get fed up with the changes. However, in Mastodon’s case, the network still remains quite small compared to X. The latest figures from X indicate the company is seeing 500 million posts per day, including original posts, replies, quotes and reposts. And despite a decline, the company still has 245 million daily active users.
Schulanfang: Was Sie Ihrem Kind über KI erzählen sollten
ChatGPT & Co. prägen inzwischen auch das Bildungswesen. Medienkompetenz für den Nachwuchs ist gefragt. Hier fünf Tipps.
Im vergangenen Jahr haben Kinder, Lehrer und Eltern dank des äußerst beliebten KI-Chatbots ChatGPT einen Crashkurs in künstlicher Intelligenz erhalten. Aber Kinder haben in der Schule und in ihrem Alltag nicht nur mit KI-Chatbots zu tun haben. KI ist zunehmend allgegenwärtig: Sie empfiehlt Sendungen auf Netflix, hilft Alexa bei der Beantwortung von Fragen, steuert jedermanns liebsten interaktiven Snapchat-Filter und die Art und Weise, wie sie ihre Smartphones entsperren.
Kinder sollten ermutigt werden, neugierig auf die Systeme zu sein, die eine immer wichtigere Rolle spielen. Hier sind die sechs wichtigsten Tipps von MIT Technology Review zum Beginn des neuen Schuljahres, wie Sie Ihrem Kind eine KI-Ausbildung ermöglichen können.
- Nicht vergessen: KI ist nicht dein Freund
Chatbots sollen genau das Eine tun: chatten. Der freundliche, gesprächige Ton, den ChatGPT bei der Beantwortung von Fragen anschlägt, kann dazu führen, dass Schüler leicht vergessen, dass sie mit einem KI-System interagieren und nicht mit einer Vertrauensperson. Dies könnte dazu führen, dass die Menschen eher glauben, was diese Chatbots sagen, anstatt ihre Vorschläge mit Skepsis zu betrachten. Obwohl Chatbots sehr gut darin sind, wie ein sympathischer Mensch zu klingen, imitieren sie lediglich die menschliche Sprache anhand von Daten aus dem Internet, sagt Helen Crompton von der Old Dominion University in Norfolk im Bundesstaat Virginia, die sich auf digitale Innovationen im Bildungsbereich spezialisiert hat.
"Wir müssen die Kinder daran erinnern, dass sie Systemen wie ChatGPT keine sensiblen persönlichen Informationen geben sollten, da diese in einer großen Datenbank gespeichert werden", sagt sie. Wenn die Daten erst einmal dort sind, ist es fast unmöglich, sie wieder zu entfernen. Sie könnten verwendet werden, um Technologieunternehmen ohne Ihre Zustimmung mehr Geld zu bringen, oder sie könnten sogar von Hackern abgegriffen werden.
- KI-Modelle sind kein Ersatz für Suchmaschinen
Große Sprachmodelle sind nur so gut wie die Daten, auf denen sie trainiert wurden. Das bedeutet, dass Chatbots zwar in der Lage sind, Fragen mit plausibel erscheinenden Texten zu beantworten, doch nicht alle Informationen, die sie liefern, sind korrekt oder zuverlässig. KI-Sprachmodelle sind auch dafür bekannt, dass sie Unwahrheiten als Fakten darstellen. Und je nachdem, wo die Daten gesammelt wurden, können sie Vorurteile und potenziell schädliche Stereotypen aufrechterhalten. Schüler sollten die Antworten von Chatbots so behandeln, wie sie jede Art von Information, die sie im Internet finden, behandeln sollten: kritisch.
"Diese Tools sind nicht repräsentativ für alle – was sie uns sagen, basiert auf dem, worauf sie trainiert worden sind. Nicht jeder ist im Internet und wird dann auch nicht reflektiert", sagt Victor Lee, ein außerordentlicher Professor an der Stanford Graduate School of Education, der kostenlose KI-Ressourcen für High-School-Lehrpläne entwickelt hat. "Schüler sollten innehalten und nachdenken, bevor wir klicken, teilen oder posten, und kritischer sein, was wir sehen und glauben, denn vieles davon könnte gefälscht sein."
Auch wenn es verlockend sein mag, sich bei der Beantwortung von Fragen auf Chatbots zu verlassen, so sind sie doch kein Ersatz für Google oder andere Suchmaschinen, sagt David Smith, Professor für Biowissenschaften an der Sheffield Hallam University in Großbritannien, der sich darauf vorbereitet hat, seinen Studenten bei der Nutzung von KI in ihrem eigenen Lernen zu helfen. Studenten sollten nicht alles, was große Sprachmodelle sagen, als unbestrittene Tatsache akzeptieren, sagt er und fügt hinzu: "Egal, welche Antwort es Ihnen gibt, Sie müssen sie überprüfen."
- "Empfehlungssysteme sind so konzipiert, dass sie dich süchtig machen und dir möglicherweise schlechte Dinge zeigen"
Es ist wichtig, Kindern zu erklären, wie Empfehlungsalgorithmen funktionieren, sagt Teemu Roos, Informatikprofessor an der Universität Helsinki, der einen Lehrplan über KI für finnische Schulen entwickelt. Technologieunternehmen verdienen Geld, wenn Menschen auf ihren Plattformen Werbung sehen. Deshalb haben sie leistungsstarke KI-Algorithmen entwickelt, die Inhalte wie Videos auf YouTube oder TikTok empfehlen, damit die Menschen süchtig werden und so lange wie möglich auf der Plattform bleiben. Die Algorithmen verfolgen und messen genau, welche Art von Videos sich die Nutzer ansehen, und empfehlen dann ähnliche Videos. Je mehr Katzenvideos man sich beispielsweise anschaut, desto wahrscheinlicher ist es, dass der Algorithmus davon ausgeht, dass man noch mehr Katzenvideos sehen möchte.
Diese Dienste neigen dazu, Nutzer zu schädlichen Inhalten wie Fehlinformationen zu führen, fügt Roos hinzu. Das liegt daran, dass die Menschen dazu neigen, bei seltsamen oder schockierenden Inhalten zu verweilen, etwa bei Fehlinformationen über die Gesundheit oder bei extremen politischen Ideologien. Es ist sehr leicht, in einer solchen Schleife stecken zu bleiben, daher ist es eine gute Idee, nicht alles zu glauben, was man online sieht. Sie sollten immer auch Informationen aus anderen zuverlässigen Quellen überprüfen.
- Denken Sie daran, KI sicher und verantwortungsbewusst zu nutzen
Generative KI ist nicht nur auf Text beschränkt: Es gibt zahlreiche kostenlose Deepfake-Apps und Webprogramme, die innerhalb von Sekunden das Gesicht einer Person auf den Körper einer anderen Person übertragen können. Während die heutigen SchülerInnen wahrscheinlich über die Gefahren des Teilens intimer Bilder im Internet gewarnt wurden, sollten sie ebenso vorsichtig sein, wenn sie die Gesichter ihrer Freunde in gewagte Apps hochladen – vor allem, weil dies rechtliche Konsequenzen haben könnte. So haben Gerichte Jugendliche beispielsweise der Verbreitung von Kinderpornografie für schuldig befunden, weil sie explizites Material über andere Jugendliche oder sogar sich selbst verschickt haben.
"Wir sprechen mit den Kindern über verantwortungsbewusstes Online-Verhalten, sowohl zu ihrer eigenen Sicherheit als auch um andere nicht zu belästigen, zu doxxen [ihre persönlichen Details wie die Adresse zu veröffentlichen, Anm. d. Red.] oder einem Catfishing zu unterziehen [im Internet vorgeben, jemand anderes zu sein, um an Dates zu gelangen, Anm. d. Red.]. Aber wir sollten sie auch an ihre eigene Verantwortung erinnern", sagt Lee. "Ähnlich wie sich böse Gerüchte verbreiten, können Sie sich vorstellen, was passiert, wenn jemand beginnt, ein gefälschtes Bild in Umlauf zu bringen."
Es ist auch hilfreich, Kindern und Jugendlichen konkrete Beispiele für die Datenschutz- oder Rechtsrisiken bei der Nutzung des Internets zu geben, anstatt zu versuchen, mit ihnen über pauschale Regeln oder Richtlinien zu sprechen, betont Lee. Wenn man ihnen zum Beispiel erklärt, dass KI-Apps zur Gesichtsbearbeitung die hochgeladenen Bilder speichern können, oder sie auf Nachrichten über gehackte Plattformen hinweist, kann dies einen stärkeren Eindruck hinterlassen als allgemeine Warnungen wie "Sei vorsichtig mit deiner Privatsphäre", sagt er.
- Vergessen Sie nicht, was die KI wirklich kann
Es ist jedoch nicht alles schlecht und düster. Während sich viele frühe Diskussionen über KI im Klassenzimmer um ihr Potenzial als Schummelhilfe drehten, kann sie, wenn sie intelligent eingesetzt wird, ein enorm hilfreiches Werkzeug sein. Schüler, die Schwierigkeiten haben, ein kniffliges Thema zu verstehen, können ChatGPT bitten, es ihnen Schritt für Schritt zu erklären, es in Form eines Raps umzuformulieren oder die Rolle eines Biologieexperten zu übernehmen, um ihr eigenes Wissen zu testen. Er ist auch außerordentlich gut darin, schnell detaillierte Tabellen zu erstellen, um beispielsweise die Vor- und Nachteile bestimmter Hochschulen zu vergleichen, was sonst Stunden an Recherche und Zusammenstellung erfordern würde.
Weitere nützliche Anwendungen sind laut Crompton, einen Chatbot um Glossare zu schwierigen Wörtern zu bitten, vor einer Geschichtsarbeit Fragen zu üben oder einem Schüler bei der Bewertung seiner Antworten zu helfen. "Solange man sich die Voreingenommenheit, die Tendenz zu Halluzinationen und Ungenauigkeiten und die Bedeutung der digitalen Kompetenz vor Augen hält, ist es großartig, wenn ein Schüler sie auf die richtige Weise nutzt", sagt sie. "Wir finden es alle erst Schritt für Schritt heraus."
In dem Artikel fehlt mir irgendwie der Grund, warum man die Regelung mit der Folie Initial eingeführt wurde?