On the technical side… there is a subfield of LLM research that focuses on “watermarking” or ensuring that LLM-generated outputs can be clearly identified, so I guess in theory it might be enforceable
Ich hasse diese pure Profitgier die die meisten haben. Solche Bücher sind meist Resultate weil irgendjemand das in der “Hussler”-Community bekannt gemacht hat
Thanks! Didnt know about this