DT3 Smart rule to filter duplicates, acting on ALL duplicate occurrences

My current solution may not be the most elegant, but it seems to work. I add to the rule the files I protect or the duplicates I want to create across multiple databases, because unfortunately replicants do not work here. For this case I have added a Boolean field to my personal metatags to manually specify an intended file duplication. So I have two criteria to distinguish desired from unwanted duplicates.

From the recycle bin I drag the deleted files to a folder on another drive to delete them later (Hazel).

He works very cleanly with keywords in file names, this can also exclude aks condition.

Maybe the question remains how I can influence which duplicate is deleted in a simple and useful way. Example: I have my DB well under control and I have a completely unsorted folder with many files, which I want to “save”, but also have to accept duplicates

CU Alex

You could limit the smart rule to this group to ensure that only the duplicates inside this group are deleted.

I have found this only after I opened a new topic.
So it seems to be a “bug”?

Ich mache hier auf Deutsch weiter, weil ich diesen Bug Ă€ußerst gefĂ€hrlich finde. Jeder User, der diese intelligente Gruppe anwendet, in dem Glauben, er wĂŒrde nur die Duplikate filtern, und diese dann löscht, löscht möglicherweise wichtige Dateien!
Das Problem besteht offenbar schon seit einiger Zeit und ist noch nicht behoben worden. Wird daran gearbeitet?
Mit besten GrĂŒĂŸen, Matze

Die intelligente Gruppe findet alle Dateien, die ein Duplikat haben, entsprechend den Suchbedingungen. D.h. dies ist kein Fehler, sondern so beabsichtigt. Die Duplikate können dann entweder manuell ĂŒberprĂŒft werden oder mit dem Skript Daten > Duplikate in Papierkorb verschieben im Skript-MenĂŒ gelöscht werden. Das Skript stellt dabei sicher, dass jeweils eine Datei erhalten bleibt.

Das wird aber missverstĂ€ndlich, lieber Christian. Wenn eine Gruppe die Regel “Item is duplicated” hat, dann erwarte ich, dass nur die Datei, die dupliziert wurde, unter dieses Kriterium fĂ€llt und nicht auch das Duplikat.
Lösung des Problems wĂ€re eine Regel die lautet “Item is duplicate”.
Die konnte ich bislang aber nicht finden.
Zusammengefasst handelt es sich hier offenbar um ein sprachliches Problem.
“Original, das dupliziert wurde/ein Duplikat hat” und “Duplikat (Datei, das eine Zweitschrift ist)”

Edit: Das Skript ist wunderbar. Nur hilft mir das nicht, wenn ich eine Gruppe erstellen will, die eben automatisch Duplikate löschen soll, und NUR die Duplikate. Oder ĂŒbersehe ich etwas?

In DEVONthink gibt es keine Originalinstanzen, weder bei Duplikaten noch bei Replikanten, insbesondere da es auch viele Wege gibt, die zu Duplikaten fĂŒhren können. Deswegen gibt es auch keine Unterscheidung - alles, was ein Duplikat hat (und das erfordert immer mind. 2 Seiten), wird gefunden.

Bei intelligenten Regeln, die Duplikate löschen oder in den Papierkorb legen sollen, ist explizit eingebaut, dass vor dem Löschen jeder Datei geprĂŒft wird, ob die Bedingung noch erfĂŒllt ist (d.h. es noch Duplikate) gibt, so dass jeweils eine Datei ĂŒbrig bleibt.