Bereits 2012 konnten Forscher der Harvard University nachweisen, dass sich DNS ebenso wie magnetische Festplatten oder Flash-Speicher zur Datenspeicherung einsetzen lässt. Die Wissenschaftler brachten ein rund 53.000 Wörter fassendes Buch, 11 JPG-Bilder und ein Java-Script-Programm auf Oligonukleotide auf und konnten sie von dort auch wieder auslesen. Zwar erwies sich das Verfahren als relativ fehleranfällig, der Anfang war jedoch gemacht. Das Team kam zu dem Schluss, dass sich auf einem Kubikmillimeter DNS theoretisch 5,5 PBit unterbringen ließen.
Das Hauptproblem der DNS-Speicherung besteht auch heute noch darin, dass bereits Datenmengen im einstelligen MByte-Bereich auf zehntausende von Strängen aufgeteilt werden müssen. Gehen beim Schreiben oder Lesen der DNS dann einzelne Fragmente verloren, kann dies die Integrität des gesamten Datensatzes gefährden. Als wirksamste Methode gegen diese Datenverluste gilt, einzelne Bereiche der DNS-Fragmente überlappen zu lassen und so für eine gewisse Redundanz zu sorgen.
Forscher des britischen European Bioinformatics Institute machten 2013 Fortschritte, sowohl was die Menge an gespeicherten Daten als auch deren Integrität betraf. 739 KByte brachten die Experten im DNS-Code unter, wobei es gelang, 100 Prozent der abgelegten Informationen wieder aus der DNS auszulesen. Verbesserte Verfahren der Fehlerkorrektur sorgten für eine nahezu verlustfreie Datenspeicherung.
2015 legten Wissenschaftler der Eidgenössischen Technischen Hochschule Zürich nach. Sie enkodierten zwar nur 83 KByte in DNS, fokussierten in ihrer Forschung aber die Langlebigkeit der neuen Speichermethode. Ergebnis: Bei konstant 10 Grad Celsius halten sich in DNS hinterlegte Informationen mindestens 2000 Jahre. Kämen die Säurenstränge bei -18 Grad Celsius ins Tiefkühlfach beziehungsweise in Langzeitarchive wie den eltweiten
...Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.