Một ngày năm 1980, nhạc sĩ người Mỹ David Cope gặp phải quân thù truyền kiếp của bất cứ ai làm trong ngành sáng tạo: creative block (rào cản sáng tạo). Để khắc phục tình trạng này, ông đã tìm cách tạo ra một phương tiện - một cỗ máy có thể dõi theo vớ những sáng tác của mình, tất tật những ý tưởng trong đầu, tìm điểm chung giữa chúng, và rồi tạo ra một bản nhạc trên nền tảng đó.
Kết quả, David Cope đã mất 6 năm để tạo ra một phần mềm viết nhạc trên máy tính mang tên EMI (Experiments in Musical Intelligence). Phương thức hoạt động của phần mềm này là phân tích và kiếm quy luật: phê duyệt việc phân tách các bản nhạc có sẳn thành từng phần nhỏ, lóng điểm chung, từ đó tạo ra những bản nhạc mới theo phong cách đã được phân tách. Ý tưởng của Cope là phân tích chính những bản nhạc do ông sáng tác để xác định xác thực phong cách cá nhân của riêng mình - tuy nhiên ông phát hiện ra rằng EMI còn có thể thực hiện điều này với cả những nhạc sĩ khác nữa. chả hạn như, cung cấp cho EMI một lượng đủ lớn những bản nhạc của Johann Sebastian Bach , và phần mềm này sẽ xác định xác thực điều gì làm nên cái "chất" trong âm nhạc của Bach, từ đó tạo ra một bản nhạc "giả Bach" tốt đến mức những người nghe nhạc bình thường sẽ không thể nhận ra tác giả thực sự của nó là ai.
Trong một lần đứng trên giảng đường trường Đại học Stanford vào năm 1997, những sinh viên dự đã được giáo sư Winifred Kerner cho nghe 3 bản nhạc trên Piano: một bản của Bach, một bản do EMI sáng tác theo phong cách của Bach, và một bản do chồng bà, ông Steve Larson sáng tác. Sau đó, các sinh viên được yêu cầu phân biệt bản nhạc này do ai sáng tác. Kết quả là bản nhạc của Larson bị nhận nhầm là bản nhạc do máy sáng tác, trong khi bản nhạc do máy sáng tác thì lại bị nhận nhầm là bản nhạc của Bach. Đương nhiên là các nhạc sĩ hoàn toàn không chấp thuận với điều này, họ cho rằng khả năng cảm nhận âm nhạc của mọi người "hỏng hết cả rồi", khi mà có thể bị một cỗ máy dễ dàng đánh lừa đến như vậy. Trong khi theo lời của các nhạc sĩ cũng như các chuyên gia về nghệ thuật, thì những bản nhạc do EMI sáng tác "chẳng hề có hồn".
Về phía nhạc sĩ David Cope, ông cho biết: "Tôi thậm chí còn chẳng biết 'tác phẩm có hồn' là như thế nào cả. Bạn có thể quãng nó trong tự điển, nhưng những gì bạn nhận được chỉ là 'một thứ gì đó có tồn tại, nhưng chẳng thể nào định nghĩa nổi'. Mà đối với tôi thì giảng giải như thế cũng như chơi vậy."
David Cope được coi là ông tổ của AI viết nhạc, và ông tin rằng trong ngày mai, việc áp dụng đúng thuật toán cho AI sẽ mở ra một chân mây âm nhạc mới mà con người không bao giờ có thể đạt đến được. Cho đến vài năm trở lại đây, việc dạy AI viết nhạc được cho là công việc của giới học giả, những người chuyên nghiên cứu về mảng âm nhạc cổ điển. Còn hiện tại, các nhà nghiên cứu đến từ các công ty lớn như Google hay Sony đang đặt ra câu hỏi rằng: Liệu AI có thể viết nhạc Pop được hay không? Nếu được thì đoàn luyện chúng như thế nào, và liệu kết quả chúng ta thu được có thể sánh với những gì mà chúng ta có thể hàng ngày nghe được trên Radio hay không? Và những rứa của các chuyên gia trong ngành này cũng mở ra nhiều mối quan tâm khác, rằng trong trường hợp mà AI phát triển mạnh mẽ, liệu chúng sẽ "đè bẹp" giới nhạc sĩ, hay sẽ trở nên dụng cụ trong tay họ giống như các phần mềm hay nhạc cụ khác mà thôi? Liệu chúng có thể trở nên bàn đạp để cho các nhã sĩ tạo ra những tuyệt phẩm âm nhạc mới?
Trên thực tế, việc sáng tác nhạc "bỏ qua nguyên tố con người" đã tồn tại từ vài thế kỉ trước. Năm 1787, Wolfgang Mozart đã đề xuất việc tạo ra một "trò thi bằng lái a1 chơi âm nhạc ngẫu nhiên", nơi mà người chơi sẽ tung xúc xắc vài lần để nối những đoạn nhạc mà con số được tung ra trình bày. Kết quả mà họ thu được là một bản nhạc hoàn chỉnh, nhưng được tạo ra một cách ngẫu nhiên từ những con số.
Năm 1957, hai giáo sư tại trường đại học Illinois là Lejaren Hiller và Leonard Isaacson đã lập trình cho chiếc siêu máy tính Illiac để nó có thể tự tạo ra một bản nhạc. Theo đó, bộ đôi này tin rằng âm nhạc phải tuân theo những quy luật khôn xiết chặt chẽ để có thể "bắt tai" người nghe, và nếu máy tính có thể nắm được những quy luật kể trên, chúng hoàn toàn có thể viết nhạc bằng các tạo ngẫu nhiên các chuỗi các nốt nhạc tuân theo các quy luật định sẵn.
Trong một thí điểm, bộ đôi này đã lập trình cho siêu máy tính Illiac tạo ra một đoạn nhạc với các quy luật sau: Bắt đầu và kết thúc bằng nốt Đô, khoảng cách giữa các nốt không quá một quãng tám, v...v... Sau đó, máy tính sẽ tiến hành viết từng nốt một, và nếu một nốt nào đó "sai luật" được tạo ra, phần mềm sẽ loại bỏ nốt đó và thử lại lần nữa.
Kết quả mà họ thu được là bản nhạc mang tên "The Illiac Suite", và nó đã phá vỡ định kiến trước lúc bấy giờ rằng "Âm nhạc là kết tinh của những trải nghiệm và xúc cảm dữ dội, dưới dạng tiết điệu". Hai giáo sư Hiller và Isaacson cũng tin rằng, nghiên cứu của họ khi được công bố sẽ tạo ra rất nhiều ý kiến trái chiều trong dư luận. "vững chắc, dư luận sẽ lại một lần nữa đặt ra câu hỏi rằng, nếu như máy tính có thể viết nhạc được, thì chúng ta đâu còn có cần đến các nhạc sĩ nữa?" - hai giáo sư đã viết trong cuốn sách "Experimental Music: Composition with an Electronic Computer" như vậy. Tuy nhiên, họ cũng khẳng định rằng "Máy tính sẽ chỉ là dụng cụ mà thôi. Chúng không biết mình làm đúng hay sai, hay hay dở. Chúng chỉ biết thực thi theo mệnh lệnh mà thôi. Kể cả khi máy tính có thể nhanh chóng tạo ra một bản nhạc đi chăng nữa, chúng vẫn cần có người để giám định kết quả rút cuộc."
Trích đoạn trong The Illiac Suite
"Đây chính là lý do mà một số nhạc sĩ tìm đến các lập trình viên để giúp họ 'hội thoại' với máy tính. Họ sẽ đưa ra một số thông báo, quy luật, và hướng dẫn máy tính thực thi chúng. Sau đó, kết quả cuối cùng sẽ được các lập trình viên cũng như các nhạc sĩ đánh giá thêm một lần nữa."
Và rồi, hơn 30 năm sau, mô hình "con người cộng tác với máy tính sáng tác nhạc" đã được David Cope thực hành. Ông tạo ra một phần mềm mang tên Emily Howell - đặt theo tên của EMI và cha của ông - với khả năng sáng tác nhạc theo phong cách riêng mình, thay vì học theo các nhà soạn nhạc khác như trước. Mỗi khi phần mềm tạo ra một bản nhạc mới, Cope sẽ đưa ra đánh giá của mình rằng ông có thích nó hay không, và máy tính sẽ thay đổi cách viết nhạc dựa theo phản hồi này. "Kết quả thu được hãy còn rất ngẫu nhiên, phần mềm cũng thay đổi dần cách viết nhạc, nhưng với tốc độ khá chậm." - David Cope chia sẻ.
"thực hiện điều này đủ lâu, bạn sẽ bắt đầu có cảm giác mình đang làm việc với một người nhạc sĩ khác, chứ không phải với máy móc nữa. Cảm giác đó khá là kỳ lạ."
Tháng 9 năm 2017, một nhóm các nhà nghiên cứu tại phòng thí nghiệm của Sony tại Paris, cùng với nhạc sĩ người Pháp Benoît Carré, tung ra hai bản nhạc do AI tương trợ sáng tác, mang tên "Daddy's Car" theo phong cách của Beatles và "The Ballad of Mr. Shadow" theo phong cách của một số nhạc sĩ người Mỹ như Duke Ellington và George Gershwin. Họ thực hành điều này dưới sự hỗ trợ của Flow Machines, một phương tiện được thiết kế để hỗ trợ những nhạc sĩ trong quá trình sáng tác.
chia sẻ về việc dùng AI sáng tác nhạc
"Tôi vẫn luôn muốn mang một tẹo táo bạo, một tẹo 'liều' trở lại với việc sáng tác nhạc" - ông François Pachet, người lãnh đạo quá trình phát triển Flow Machine tại Sony cho biết. "Tôi cảm thấy những bản nhạc của những năm 60, 70, 80 của thế kỉ trước thú hơn hẳn về mặt nhạc điệu, hòa thanh, v...v... Mặc dù tôi nghĩ, rất nhiều người khi nghe được những lời này hẳn sẽ cho rằng tôi chỉ là một lão già cổ lỗ sĩ". Pachet hiện nay là người lãnh đạo đội ngũ phát triển AI tại Spotify, và hệ thống này được đánh giá khá cao về khả năng đưa ra gợi ý nghe nhạc cho người dùng.
trong quá trình làm việc với Flow Machine, Pachet đã liên can với rất nhiều nhạc sĩ khác nhau có hứng với việc phát triển AI, để thử nghiệm việc "viết nhạc bằng máy". Kết quả mà ông thu được là một Album mang tên "Hello World", với sự tham dự của nhiều nhạc sĩ thuộc nhiều thể loại như Pop, Jazz, hay nhạc điện tử. Những bài hát trong Album này đều chứa một tẹo gì đó "sáng tác" của máy tính, và được chính tay các nhạc sĩ "cân chỉnh" lại cho hợp ý.
Hello Shadow, một bản nhạc do AI hỗ trợ sáng tác
Quá trình sáng tác nhạc với Flow Machine bắt đầu từ việc nhạc sĩ sáng tác ra một "đoạn nhạc gốc", có thể là một đoạn nhạc điệu guitar, một đoạn hát, v...v..., và máy sẽ phân tích chúng và kết hợp với cơ sở dữ liệu sẵn có để tạo ra "một bản nhạc mới hoàn toàn". Giống như với phần mềm Emily Howell, nếu nhạc sĩ không thích bản nhạc do máy tạo, họ có thể loại bỏ chúng, và máy sẽ ngay tức khắc đưa ra một bản nhạc mới cho họ thẩm định. phải các nhạc sĩ hợp ý với bản nhạc mà máy tạo, họ sẽ có thể "vọc thêm" theo ý mình, chỉnh sửa lại các nốt nhạc, đè một nhạc cụ khác lên, viết lời, v...v..
hết thảy quá trình sẽ diễn ra trong khoảng thời kì từ vài giờ đến vài ngày. Mục tiêu của quá trình này là để giảm thiểu cảm giác mỏi mệt khi sáng tác nhạc, khi mà "bạn có một giao diện tương tác với Flow Machine, để có thể cho máy biết mình thích và không thích những thứ gì. phải bạn cảm thấy kết quả đạt được vẫn chưa phải tốt nhất có thể, thì bạn lại đấu sáng tác cùng với máy tiếp."
Sáng tác nhà bằng FlowMachine
Các nhạc sĩ có thể sẽ thấy thích việc cộng tác sáng tác cùng với FlowMachine, thế còn người nghe thì sao? thực tiễn cho thấy những người nghe nhạc vẫn chẳng lấy gì làm nô nức lắm với những bản nhạc được AI hỗ trợ sáng tác, tuy nhiên điều này rất dễ sẽ đổi thay trong tương lai. Một trong những cái tên nổi nhất trong Album Hello World kể trên là Kiesza, với hơn 1,8 triệu lượt nghe ca khúc của cô trên Spotify.
Dự đoán về ngày mai của những bản nhạc viết nhờ vào AI ở thời điểm hiện tại có lẽ vẫn còn hơi sớm. Tháng 2 vừa rồi, công ty Jukedeck đến từ London, đã cộng tác với hãng nhạc Hàn Quốc Enterarts để tổ chức một buổi trình diễn ở Seoul. Buổi biểu diễn có sự dự của Bohyoung Kim đến từ SPICA, và nhóm nhạc nữ High Teen, tuy nhiên điểm đáng để ý ở đây là tất cả những bài hát được trình diễn đều được tạo ra bởi AI của Jukedeck. Buổi diễn có tổng cộng khoảng 300 khán giả tham gia, hầu hết là người của giới truyền thông. Nhìn chung, có vẻ như hồ hết mọi người vẫn chưa mấy mặn mòi gì với những bài hát do AI sáng tác cả.
Magic Man - một bản nhạc khác do AI hỗ trợ sáng tác
Khi được hỏi về ngày mai của việc AI sáng tác nhạc có được người nghe bằng lòng hay không, Pachet cho biết: "Giờ đây cái cách mà mọi người nghe nhạc không còn giống như chúng tôi trước đây nữa. Có quá nhiều chọn lọc âm nhạc cho mọi đứa ở thời điểm ngày nay, và giờ mọi người chỉ mất vài giây để quyết định xem họ có thích bản nhạc này hay không mà thôi. nếp này hoàn toàn không tồn tại ở thời của chúng tôi."
Một trong những cách để tạo ra tương lai cho những "cỗ máy viết nhạc" là việc coi AI giống như một nhạc cụ khác. Điều này sẽ giúp giảm bớt những nỗi lo không đáng có về việc AI sẽ "cướp hết đất sống" của nhạc sĩ, giống như việc Robot cướp việc làm của con người vậy. Giống như những gì Pachet san sớt về việc có nên ghi AI vào phần tác giả sáng tác hay không: "FlowMachine chỉ là dụng cụ mà thôi. dụng cụ thì không phải là tác giả sáng tác. Nếu không, chắc danh sách tác giả nên có cả Guitar, Piano, hay thậm chí cả cái Micro nữa. Các bạn cần phải coi AI là một dụng cụ tương trợ mình."
Google hiện cũng đang tụ hội vào việc phát triển các "dụng cụ" như thế. Hồi đầu tháng, đội ngũ Google Magenta (nghiên cứu các phương tiện AI tương trợ sáng tạo cho con người) đã trình diễn về một công cụ magn tên NSynth Super, một loại touchpad tạo ra âm thanh mới dựa trên 2 âm thanh có sẵn (hãy thử tưởng tượng việc nghe một thứ âm thanh lai giữa trumpet và harmonica). Khi được phỏng vấn, kỹ sư Jesse Engel tại Magenta, đã so sánh những gì AI có thể làm giúp các nhạc sĩ cũng giống như những gì mà các nhạc cụ từng làm được trong lịch sử vậy. Ông nói về việc âm ly từng được tạo ra chỉ để kích tiếng đàn guitar lên cho to mà thôi, và rồi việc dùng chúng để tạo thành tiếng distortion là kết quả đến từ sự "nghịch ngọm" của những người làm nhạc.
"Và nếu như những nhà phát triển có thể đưa dụng cụ của mình vào tay đủ nhiều người, thì họ sẽ có thể thành công."
Tham khảo Gizmodo
Không có nhận xét nào:
Đăng nhận xét