Zacryon

joined 2 years ago
[–] Zacryon@feddit.org 8 points 21 hours ago

Yes, I agree. :)

[–] Zacryon@feddit.org 10 points 22 hours ago (2 children)

Ah, we have reached another cycle of reposting this. Good to have, since I don't use a calendar and would otherwise not know which year we have. /j

(Note, I am not against reposts if spaced "far enough" in time, because as mentioned before: I don't use a calendar. /j)

[–] Zacryon@feddit.org 44 points 22 hours ago (5 children)

It's nice how AI datacenters step by step swallow virtually all available hardware resources to provide digital services to users who won't be able to use those services due to the lack of available hardware.

[–] Zacryon@feddit.org 22 points 1 day ago (2 children)

Wie diese menschenfeindliche Partei nach wie vor schafft so viele Stimmen in Wahlen abzuholen bleibt mir ein Rätsel.

Ah ne Moment: Populismus und medieninkompetente Bürgys.

[–] Zacryon@feddit.org -2 points 2 days ago

if anything the defamation was coming from emopunker, declaring people upvoting the thread [...] as 'the same person'

Fair point.

I am on the fence about the 'snark comm' ordeal. I think such communities are – to some degree – meaningful for a critical discourse. Imo, one should be allowed to point out and criticise users, communities, whole instances.

Then again, this should not make someone a target for harassment.

From my pov, it's a question of balancing interests here: civilised criticism is important and should be allowed. Especially in such public spaces. Denying this due to a hazard of making them a target for people who see this as a 'call to action' would suffocate such discussions completely. So I'd address the harassers and sanction them, instead of people who merely point things out they find suspicious, as in this case.

So unless Emopunker directly incited the harassment or did it themselves, I'd lean towards: "yeah, somewhat uncool to throw such accusations in the room without further proof, but that doesn't make them the culprit".

[–] Zacryon@feddit.org 1 points 2 days ago* (last edited 2 days ago)

Shit, haven't got much time left to finally play through Skyrim.

[–] Zacryon@feddit.org 0 points 2 days ago (4 children)

I followed your link. It shows a comment you made, yet with another link to a comment by Emopunker@feddit.org. And you claim that they harass people. The comment by Emopunker shows a screenshot where three usernames are listed that share similarities. Emopunker says that they have the suspicion that the shown users are the same person with alt accounts.

In conclusion: I wonder whether you forgot to attach some context, because based on this alone I don't see anything that support your claims.

[–] Zacryon@feddit.org 3 points 2 days ago

The sad thing is: you can pass shit on to others without being releated to them.

[–] Zacryon@feddit.org 17 points 5 days ago

Google’s chief legal officer clarified that he is not opposed to digital sovereignty, but recommended making use of the “best technologies in the world.”

At least they recommended not using Google products. My technological life has also significantly improved since I have ditched this ad serving company.

[–] Zacryon@feddit.org 5 points 5 days ago* (last edited 5 days ago) (1 children)

Man darf natürlich nicht vergessen, dass Autogeräusche auch eine Sicherheitsfunktion insb. für Fußgängys haben.

Das bedeutet trotzdem noch lange nicht, dass man volle Kanone die Gegend zudröhnen muss.

 

Ich neige dazu zuzustimmen.

 

Auszug:

"Negative Videos mit Angriffen auf den politischen Gegner haben mehr Reichweite: 40 Prozent mehr Sichtbarkeit als die Videos, die positiv sind und die sagen, wir sind toll."

Es gebe also eine große Diskrepanz zwischen dem, was von demokratischen Parteien produziert wird, und dem, was Reichweite bekommt. Dabei zeigt die repräsentative Befragung von rund 1.700 Jugendlichen, dass sich diese lieber Videos mit positiver Ausrichtung wünschen und Angriffe auf politische Gegner gar nicht gut finden.

"Populistische Angreifer wie die AfD oder das BSW reden mehrheitlich negativ über andere und bekommen weitaus mehr Sichtbarkeit", erklärt Fröhlich.

Diese Sichtbarkeit wird von den Plattformbetreibern gesteuert und hat nichts damit zu tun, ob die Jugendlichen die Inhalte tatsächlich gut finden. Hier sollte demokratische Politik ansetzen. Das Studienteam empfiehlt demokratischen Parteien, sich stärker auf die tatsächlichen Interessen der jungen Generation zu fokussieren, denn bisher beständen deren Beiträge zu 70 Prozent aus Selbstdarstellung und verfehlten damit das Interesse der Zielgruppe.

Paulina Fröhlich erläutert, worauf Politikerinnen und Politiker dabei achten sollten: "Auf ein authentisches Profil, auf eine verständliche Sprache, auf Themen, die wirklich mit der Lebensrealität von jungen Leuten auch zu tun haben."

Auch die Umsetzung sollten demokratische Parteien und Demokratievermittler überdenken. Viele Angebote wirkten nicht authentisch oder seien zu kompliziert gestaltet. Besonders schlecht komme es an, wenn Politikerinnen oder Politiker tanzen oder lustige Filter benutzen. Dabei sollten die Inhalte durchaus unterhaltsam sein - mit einem roten Faden und einer klaren Story könnten sie das Interesse der jungen Zielgruppe wecken.

44
GAAAR NIIICHT! (feddit.org)
submitted 4 months ago* (last edited 4 months ago) by Zacryon@feddit.org to c/aber_bitte_laminiert@feddit.org
 

Auf dem Zettel Steht:

PARKEN VERBOTEN!
Nicht 3 Minuten
Nicht 10 Sekunden
Nicht mit Parkscheibe
GAAAR NIIICHT!
Unberechtigt parkende Fahrzeuge werden kostenpflichtig abgeschleppt.

Entschuldigt die geringe Bildqualität. War ein kleiner Schnappschuss. Es waren Leute in der Nähe und ich habe mich sozial zu selbstunsicher gefühlt, um super offensichtlich mit dem Schlaufon rumzufuchteln.

 
 

Ein internationales Forscherteam hat mit ScamChatBot ein KI-System gebaut, das sich als potenzielles Opfer ausgibt, um Betrüger zu enttarnen. Ziel ist es, Zahlungsinformationen aufzudecken, um so den Betrug zu bekämpfen.

Das Ziel: Sobald der Onlinebetrüger Kontodaten nennt, an die das Geld überwiesen werden soll, werden diese automatisch an Zahlungsdienstleister wie zum Beispiel PayPal weitergeleitet. Diese können dann die Konten sperren und so Internetnutzende und davor bewahren, betrogen zu werden.

Über vier Monate tauschte ScamChatBot mehr als 18.000 Chatnachrichten mit Betrügern aus. In rund 500 Fällen gelang es, konkrete Informationen zu sammeln, darunter Wallet-Adressen, PayPal-Konten oder Links zu Betrugswebseiten. Die Plattform X bestätigte gegenüber den Wissenschaftlern, dass 84 Prozent der gemeldeten Profile gegen Richtlinien verstießen und leitete Maßnahmen gegen 1,4 Millionen verknüpfte Accounts ein.

Aktuell trainieren die Forscherinnen und Forscher die KI, so dass sie auch mit Betrügern telefonieren kann.

Laut dem UN-Büro für Drogen- und Verbrechensbekämpfung in Südostasien belaufen sich die Schäden weltweit auf rund 40 Milliarden US-Dollar pro Jahr. Befördert wird das unter anderem durch den Einsatz von KI, die es den Kriminellen erlaubt, Sprachbarrieren zu überwinden und automatisiert auf viele Opfer gleichzeitig zuzugehen.

Laut den Vereinten Nationen werden in Südostasien mehr als 100.000 Menschen in sogenannten Scam-Fabriken unter Zwang festgehalten. Sie müssen unter falscher Identität betrügen, dies oft mit Hilfe von Tools wie ChatGPT. Laut UN-Analyst Benedikt Hofmann entstehen in Ländern wie Myanmar oder Laos systematisch neue Standorte für organisierten Internetbetrug, begünstigt durch instabile politische Verhältnisse.

Auch hierzulande zeigt sich das Problem: Im Jahr 2024 wurden laut Bundeslagebild Cybercrime mehr als 130.000 Fälle mit Tatort in Deutschland erfasst, dazu rund 202.000 Taten, deren Ursprung im Ausland liegt, die aber in Deutschland ihre Wirkung entfalten. Das Bundeskriminalamt nennt vor allem "Cybercrime-as-a-Service" als wachsenden Faktor: Kriminelle mieten sich Dienstleistungen vom Fake-Profil bis zur automatisierten Zahlungsaufforderung.

Doch auch die Cyberkriminellen entwickeln sich immer weiter. In etwa jedem vierten Fall stellte das Forscherteam fest, dass die Betrüger selbst automatisierte Texte verwendeten. Manche Online-Betrüger reagierten etwa in unter einer Sekunde, was ein Hinweis auf Bot-Nutzung ist. "Wir stehen erst am Anfang", sagt IT-Sicherheitsforscher Thorsten Holz. "Die nächste Welle an Betrugs-KI ist bereits unterwegs."

 
 
 
 
view more: next ›