ประวัติข้อมูลการคัดลอกข้อมูล

การคัดลอกข้อมูลอย่างน้อยที่สุดในรูปแบบดั้งเดิมตั้งแต่ปี 1970 เริ่มแรกเนื่องจาก บริษัท ต้องการเก็บข้อมูลติดต่อลูกค้าจำนวนมากโดยไม่ต้องใช้พื้นที่จัดเก็บข้อมูลเป็นจำนวนมาก แนวคิดแรกคือการเลี่ยงและลบข้อมูลที่ซ้ำกัน ตัวอย่างเช่น บริษัท อาจมีที่อยู่จัดส่งและที่อยู่เรียกเก็บเงินสำหรับลูกค้าที่กำหนด ในกรณีเหล่านี้ชื่อเดียวกันนี้จะอยู่ในไฟล์ นี้ทำโดยข้อมูลการป้อนข้อมูลที่อ่านบรรทัดข้อมูลตามบรรทัดและกำจัดชุด

แน่นอนว่าจำนวนพนักงานที่จำเป็นสำหรับเรื่องนี้ก็กว้างขวางและใช้เวลานานมาก บางครั้งกระบวนการทำข้อมูลซ้ำซ้อนเป็นเวลาหลายเดือน อย่างไรก็ตามเนื่องจากเป็นฉบับพิมพ์ใหญ่ไม่มีปัญหาใหญ่ ปัญหาใหญ่ที่เกิดขึ้นกับการใช้งานคอมพิวเตอร์อย่างแพร่หลายแพร่หลายไปทั่วทั้งสำนักงาน

เนื่องจากมีการใช้งานคอมพิวเตอร์และการระเบิดทางอินเทอร์เน็ตจำนวนมากข้อมูลที่มีอยู่ได้แพร่กระจายไปแล้ว ระบบรักษาความปลอดภัยได้รับการจัดตั้งขึ้นเพื่อให้แน่ใจว่า บริษัท จะไม่สูญเสียข้อมูลทั้งหมด เมื่อเวลาผ่านไประบบจัดเก็บข้อมูล floppies และฮาร์ดแวร์ภายนอกอื่น ๆ น่าเสียดายที่ข้อมูลเหล่านี้จะเติมข้อมูลลงในดิสก์เหล่านี้และปริมาณพื้นที่จัดเก็บข้อมูลที่กว้างขวาง

ด้วยการจัดเก็บเมฆบนคลาวด์และความสามารถในการจัดเก็บข้อมูลอื่น ๆ บริษัท ต่างๆเริ่มเก็บข้อมูลเหล่านี้ไว้ในสภาพแวดล้อมเสมือนจริง พวกเขาย้ายไปยังฮาร์ดไดรฟ์ฮาร์ดไดรฟ์เพียงเพราะมันเป็นต้นทุนต่ำและต้องใช้พื้นที่น้อย อย่างไรก็ตามตัวเลือกการจัดเก็บข้อมูลเหล่านี้มีราคาแพงและยากที่จะจัดการกับข้อมูลที่เพิ่มขึ้น คุณได้รับข้อมูลเดิมซ้ำแล้วซ้ำอีก ข้อมูลที่ไม่จำเป็นนี้ไม่จำเป็นและทำให้พื้นที่จัดเก็บที่มีคุณค่า

บริษัท อาจมีการกำหนดแผนการสำรองข้อมูลเพื่อลดการทำสำเนา แต่นี่ไม่ใช่วิธีที่รวดเร็ว นี่คือตอนที่วิศวกรไอทีเริ่มทำงานอัลกอริทึมเพื่อทำให้ขั้นตอนการคัดลอกข้อมูลเป็นไปโดยอัตโนมัติ นี้มักจะทำในแต่ละกรณีโดยมีวัตถุประสงค์เพื่อเพิ่มประสิทธิภาพการสำรองข้อมูลของตนเอง อัลกอริทึมของพวกเขาได้รับการออกแบบเพื่อตอบสนองความต้องการของตนเอง

ไม่มี บริษัท ใดที่มากับการขจัดข้อมูลซ้ำซ้อน อย่างไรก็ตามอุตสาหกรรมมักต้องลดไฟล์ที่ซ้ำกัน มีนักวิทยาศาสตร์คอมพิวเตอร์จำนวนมากที่ปรับปรุงเทคโนโลยีการคัดลอกข้อมูลอย่างมีนัยสำคัญ แต่ไม่มีนักวิทยาศาสตร์คนใดที่รับผิดชอบเพียงอย่างเดียว แม้ว่าหลายคนอ้างถึงคำว่า "ข้อมูลหักล้าง" แต่ไม่มีบุคคลใดสามารถเรียกร้องเครดิตสำหรับแนวคิดนี้ได้

การสร้างอัลกอริทึมการทำข้อมูลซ้ำ ค่อนข้างเรียบเรียง คนที่ทำงานในอุตสาหกรรมด้านไอทีจำเป็นต้องลดข้อมูลที่ซ้ำกันและได้ปฏิบัติตามความต้องการในการลดไฟล์ที่ซ้ำโดยการทำอัลกอริทึม เมื่อข้อมูลเติบโตขึ้นผู้คนยังคงหาวิธีบีบอัดข้อมูลในลักษณะที่ช่วยในการจัดเก็บข้อมูล

Source by Robert Fogarty

Leave a Reply

Your email address will not be published. Required fields are marked *