Các yếu tố ảnh hưởng đến việc lựa chọn dịch vụ ngân hàng trực tuyến của khách hàng cá nhân, nghiên cứu tại các ngân hàng thương mại - 10

60


3.2.2 Mô hình nghiên cứu đề xuất


Trên cơ sở các nghiên cứu trong và ngoài nước có liên quan, các giả thuyết nghiên cứu đã được phát triển ở trên, tác giả tiến hành hiệu chỉnh mô hình UTAUT2 của Venkatesh và cộng sự (2012) để đánh giá các yếu tố ảnh hưởng đến việc lựa chọn dịch vụ NHTT của KHCN tại các NHTM Việt Nam. Theo Yaseen và Qirem (2018), mô hình UTAUT2 cần được điều chỉnh khi thực hiện nghiên cứu, nhằm cung cấp những thông tin phù hợp với đối tượng được khảo sát. Thay đổi đầu tiên trong mô hình liên quan đến yếu tố điều kiện thuận lợi trong mô hình UTAUT2. Cụ thể, Venkatesh và cộng sự (2012) cho rằng yếu tố điều kiện thuận lợi là các điều kiện thúc đẩy và cản trở ý định lựa chọn. Tuy nhiên, các điều kiện thúc đẩy có liên quan đến các yếu tố nỗ lực kỳ vọng và hiệu quả kỳ vọng đã được đề cập trong mô hình. Mặt khác, Sự lo lắng về rủi ro bảo mật có ảnh hưởng tiêu cực đến việc chấp nhận dịch vụ NHTT, những người có mức độ lo lắng cao sẽ dẫn đến việc tránh xa công nghệ do lo sợ bị mất cắp mật khẩu hoặc lo sợ những sai sót khi sử dụng dịch vụ (Compeau và Higgins, 1995). Do đó, trong nghiên cứu này tác giả đề xuất yếu tố cảm nhận rủi ro thay thế cho yếu tố điều kiện thuận lợi trong mô hình UTAUT2. Tiếp theo, hai yếu tố còn lại được điều chỉnh trong mô hình UTAUT2 là động lực hưởng thụ (Hedonic Motivation) và thói quen (Habit). Theo Venkatesh và cộng sự (2012), động lực hưởng thụ liên quan đến cảm nhận hạnh phúc của khách hàng khi sử dụng dịch vụ. Tuy nhiên, nhiều nhà nghiên cứu đã chỉ ra rằng cảm nhận hạnh phúc của khách hàng có liên quan mật thiết với thương hiệu của ngân hàng. Hình ảnh thương hiệu thể hiện đẳng cấp của người sử dụng dịch vụ và là một yếu tố quan trọng trong việc đánh giá tổng quát về dịch vụ của ngân hàng (Andreassen và Lindestad, 1998; Nguyen và Leblanc, 1998). Bên cạnh đó, theo Venkatesh và cộng sự (2012), thói quen liên quan đến kinh nghiệm của khách hàng khi lựa chọn sử dụng dịch vụ của ngân hàng trong quá khứ. Trong bối cảnh công nghệ không ngừng thay đổi, Wood và Swait (2002) đã phát hiện tính đổi mới có thể dự báo hành vi chấp nhận các sản phẩm công nghệ mới.

61


H1+

Kinh nghiệm sử dụng Internet

H9+

Có thể bạn quan tâm!

Xem toàn bộ 240 trang tài liệu này.

Ý định hành vi lựa chọn

H8+

Các yếu tố ảnh hưởng đến việc lựa chọn dịch vụ ngân hàng trực tuyến của khách hàng cá nhân, nghiên cứu tại các ngân hàng thương mại - 10

LỰA CHỌN NGÂN HÀNG TRỰC TUYẾN

Giá trị chi phí

H7+

Hình 3.2 Mô hình nghiên cứu đề xuất

Nỗ lực kỳ vọng

H3+

Cảm nhận rủi ro

H5+

Ảnh hưởng xã hội

Tính đổi mới

H6+

Hiệu quả kỳ vọng

H2+

Hình ảnh thương hiệu

H4+

Nguồn: Đề xuất của tác giả


3.3 Nghiên cứu định tính


Theo Maxwell (2005), do đặc trưng nghiên cứu theo chiều sâu, kích thước mẫu trong nghiên cứu định tính có thể rất bé (bằng 1) hoặc khá lớn (vài chục trở lên). Việc lựa chọn mẫu không cần tuân theo qui tắc ngẫu nhiên mà cần chú ý đến những đối tượng khảo sát có nhiều khả năng cung cấp thông tin theo yêu cầu của đề tài. Các phần tử của mẫu được chọn cần thỏa mãn một số đặc tính của đám đông nghiên cứu (Nguyễn Đình Thọ, 2012).

Trong nghiên cứu này, tác giả chọn đối tượng để thực hiện nghiên cứu định tính gồm: thứ nhất, các chuyên gia trong lĩnh vực tài chính ngân hàng; thứ hai, các nhà quản lý tại các NHTM Việt Nam trên 03 địa bàn thành phố Hồ Chí Minh, Đà

62


Nẵng, Hà Nội. Cách lựa chọn những thành viên tham gia vào buổi thảo luận theo phương pháp phi xác suất, tức là sẽ chọn những đối tượng mà người nghiên cứu có mối quan hệ, đã làm việc lâu năm trong ngành hoặc có thể nhờ những thành viên đó mời thêm bạn bè của mình cũng làm việc lâu năm trong ngành tham gia thảo luận. Nghiên cứu định tính được thực hiện qua các bước:

- Bước 1: Sau khi tổng hợp thang đo từ các nghiên cứu trước, mục đích của bước này là làm sáng rõ thêm lý thuyết và xây dựng, điều chỉnh, phát triển thang đo. Do đó tác giả thực hiện thảo luận dạng nhóm thực thụ (full group) gồm 4 chuyên gia cùng 6 nhà quản lý tại các NHTM Việt Nam trên 03 địa bàn thành phố Hồ Chí Minh, Đà Nẵng, Hà Nội. Kết quả bước này thể hiện ở Phụ lục 3.

- Bước 2: Sau khi có được thang đo sơ bộ từ thảo luận nhóm, tiếp tục phỏng vấn tay đôi nhằm điều chỉnh và phát triển thang đo để đảm bảo giá trị nội dung phục vụ cho nghiên cứu định lượng. Các đối tượng tham gia được khuyến khích đưa ra nhận xét và những góp ý chỉnh sửa cho bất kỳ câu hỏi nào mà họ thấy mơ hồ hoặc khó trả lời. Kết quả kiểm tra đã cho một số ý kiến phản hồi về bảng câu hỏi và chỉ một vài thay đổi nhỏ (như dấu câu, lỗi chính tả, từ có thể hiểu sai ý) đã được thực hiện trong bảng câu hỏi để phục vụ cho nghiên cứu sơ bộ định lượng.

3.4 Nghiên cứu định lượng


3.4.1 Nghiên cứu định lượng sơ bộ


Sau khi đã hình thành được bảng câu hỏi gồm thang đo các yếu tố trong mô hình, việc điều tra sơ bộ và phân tích định lượng được thực hiện nhằm đảm bảo độ tin cậy và phù hợp cho các thang đo. Để tăng độ tin cậy của thang đo khi vận dụng nghiên cứu định lượng chính thức với quy mô mẫu lớn, tác giả tiến hành đánh giá sơ bộ độ tin cậy và các giá trị của thang đo bằng hệ số tin cậy Cronbach’s Alpha và phân tích EFA để sàng lọc, loại bỏ các biến quan sát không đáp ứng tiêu chuẩn (biến rác). Cụ thể:

- Bước 1: Thu thập dữ liệu để phân tích định lượng sơ bộ với số mẫu nhỏ bằng cách phát ra 170 bảng câu hỏi khảo sát cho KHCN đến giao dịch tại các

63


NHTM Việt Nam trên địa bàn 03 thành phố Hồ Chí Minh, Đà Nẵng, Hà Nội (Thống kê số lượng khảo sát tại từng địa phương được trình bày trong Phụ lục 5)

- Bước 2: Ứng dụng phần mềm SPSS 25.0 để phân tích và xử lý dữ liệu, đánh giá sơ bộ độ tin cậy và các giá trị của thang đo. Cụ thể:

+ Đánh giá sơ bộ độ tin cậy và các giá trị của thang đo bằng hệ số tin cậy Cronbach’s Alpha. Theo Nguyễn Đình Thọ (2012), để tính Cronbach’s Alpha cho một thang đo thì thang đo phải có tối thiểu là ba biến đo lường và một thang đo có giá trị tốt khi nó biến thiên trong khoảng từ 0,70 đến 0,80. Tuy nhiên, cũng có nhiều nhà nghiên cứu đề nghị rằng Cronbach’s Alpha từ 0,6 trở lên là có thể sử dụng được trong trường hợp khái niệm đang đo lường là mới hoặc mới đối với người trả lời trong bối cảnh nghiên cứu (Nunally, 1978; Peterson, 1994; Slater, 1995 trích trong Hoàng Trọng và Chu Nguyễn Mộng Ngọc, 2008). Trong nghiên cứu này, các biến không phù hợp bị loại khi chúng có tương quan biến tổng (Item- total correlation) nhỏ hơn 0,3 và không vi phạm giá trị nội dung đồng thời tiêu chuẩn chọn thang đo khi có hệ số tin cậy Cronbach’s alpha từ 0,6 trở lên.

+ Phân tích EFA để đánh giá giá trị thang đo (tính đơn hướng, giá trị hội tụ và giá trị phân biệt). Dùng phương pháp trích Principal Axis Factoring với phép xoay Promax có phương sai trích bé hơn nhưng phản ánh cấu trúc dữ liệu chính xác hơn (Gerbing và Anderson, 1988 trích trong Nguyễn Đình Thọ, 2012). Bên cạnh đó, theo Nguyễn Khánh Duy (2009), nếu sau phân tích EFA là phân tích hồi quy thì có thể sử dụng phương pháp trích Principal Component với phép xoay Varimax, còn nếu sau EFA là phân tích nhân tố khẳng định (CFA) và mô.hình.cấu.trúc.tuyến tính (SEM) thì nên sử dụng phương pháp Principal Axis Factoring với phép xoay Promax. Vì vậy, phương pháp Principal Axis Factoring với phép xoay Promax và điểm dừng khi trích các yếu tố (eigenvalue) ≥ 1 được dùng cho toàn bộ phân tích EFA trong nghiên cứu này. Phương pháp trích hệ số được sử dụng trong nghiên cứu này là phương pháp trích yếu tố Principal Commponent, phép quay Varimax và điểm dừng khi trích các yếu tố Eigenvalue là 1 và tổng phương sai trích bằng hoặc lớn hơn 50%. Dưới đây là một số yêu cầu của phân tích EFA được sử dụng trong nghiên cứu này: Chỉ số KMO (Kaiser – Meyer – Olkin) tối thiểu phải lớn hơn 0,5,

64


KMO là một chỉ tiêu dùng để xem xét sự thích hợp của EFA, mức chấp nhận là 0,5≤ KMO ≤ 1. Kiểm định Barlett: Nếu kiểm định này có ý nghĩa thống kê (Sig. < 0.05) thì các biến quan sát có tương quan với nhau trong tổng thể, tức áp dụng EFA phù hợp. Factor loading ≥ 0.3 được xem là mức tối thiểu. Factor loading ≥ 0.4 được xem là quan trọng. Factor loading ≥ 0.5 được xem là có ý nghĩa thực tiễn.

Mặt khác, theo Nguyễn Đình Thọ (2012), trong nghiên cứu sơ bộ, kích thước mẫu thường nhỏ, vì vậy, nếu xem xét tất cả thang đo cùng một lúc chúng ta sẽ gặp khó khăn về kích thước mẫu. Vì vậy, mặc dù không hoàn chỉnh nhưng chúng ta có thể sử dụng chiến lược dùng EFA cho từng khái niệm đa hướng và dùng EFA cho tất cả các khái niệm đơn hướng. Chúng ta có thể tiếp tục đánh giá khi có mẫu lớn hơn trong nghiên cứu chính thức.

3.4.2 Nghiên cứu định lượng chính thức


Giai đoạn nghiên cứu định lượng chính thức nhằm khẳng định yếu tố cũng như các giá trị, độ tin cậy và mức độ phù hợp của các thang đo các yếu tố ảnh hưởng đến việc lựa chọn dịch vụ NHTT của KHCN tại các NHTM Việt Nam; kiểm định mô hình nghiên cứu và các giả thuyết nghiên cứu; Nghiên cứu định lượng chính thức được thực hiện tại địa bàn 03 thành phố Hồ Chí Minh, Đà Nẵng, Hà Nội qua các giai đoạn:

Xác định kích thước mẫu và thu thập dữ liệu


Theo Nguyễn Đình Thọ (2012), xác định kích thước mẫu là một công việc không dễ dàng trong nghiên cứu khoa học. Kích thước mẫu cần cho nghiên cứu phụ thuộc vào nhiều yếu tố như phương pháp xử lý (hồi quy, phân tích nhân tố khám phá EFA...), độ tin cậy cần thiết. Kích thước mẫu càng lớn càng tốt nhưng lại tốn chi phí và thời gian. Tuy vậy, thế nào là một mẫu lớn vẫn chưa được các nhà nghiên cứu khẳng định một cách chính thức. Theo Hair và cộng sự (2010), cỡ mẫu cần phải được xem xét trong sự tương quan với số lượng các thông số ước lượng và nếu sử dụng phương pháp ước lượng hợp lý tối đa (ML - Maximum Likelihood) thì kích thước mẫu tối thiểu phải từ 100 đến 150. Bên cạnh đó, theo Bolen (1989), dẫn

65


trong Nguyễn Đình Thọ (2012), tối thiểu phải có năm quan sát trên mỗi thông số ước lượng (tỷ lệ 5:1). Mặt khác, theo Raykov và Widaman (1995), dẫn trong Nguyễn Đình Thọ và Nguyễn Thị Mai Trang (2008), SEM đòi hỏi kích thước mẫu lớn vì nó dựa vào lý thuyết phân phối mẫu lớn. Kinh nghiệm cho thấy kích thước mẫu 300 là tốt, 500 là rất tốt và 1000 là tuyệt vời (Tabachnick và Fidell, 2001).

Thu thập dữ liệu nghiên cứu với số mẫu lớn bằng cách phát ra 570 bảng câu hỏi khảo sát cho KHCN đến giao dịch tại các NHTM Việt Nam trên địa bàn 03 thành phố Hồ Chí Minh, Đà Nẵng, Hà Nội (Thống kê số lượng khảo sát tại từng địa phương được trình bày trong Phụ lục 6). Với kích thước mẫu này là đảm bảo tính đại diện theo nghiên cứu của Tabachnick và Fidell ( 2001).

Phân tích mô hình cấu trúc tuyến tính (SEM)

- Bước 1: Kiểm định chất lượng thang đo. Đánh giá sơ bộ độ tin cậy và các giá trị của thang đo bằng hệ số tin cậy Cronbach’s Alpha.

- Bước 2: Phân tích EFA thông qua phần mềm xử lý SPSS 25.0 để tiếp tục sàng lọc, loại bỏ các biến quan sát không đáp ứng tiêu chuẩn. Cách thức thực hiện tương tự như phần nghiên cứu định lượng sơ bộ.

- Bước 3: Phân tích nhân tố khẳng định (CFA) để kiểm định lại độ phù hợp của các thang đo với dữ liệu thị trường. Phân tích nhân tố khẳng định giúp làm sáng tỏ một số phương diện sau:

Tính đơn hướng


Theo Hair và cộng sự (2010), mức độ phù hợp của mô hình với dữ liệu thị trường cho chúng ta điều kiện cần và đủ để cho tập biến quan sát đạt được tính đơn hướng, trừ trường hợp các sai số của các biến quan sát có tương quan với nhau. Để đo lường mức độ phù hợp với thông tin thị trường, người ta thường sử dụng: Chi- square (CMIN), Chi-square điều chỉnh theo bậc tự do (CMIN/df); chỉ số thích hợp tốt (GFI - Good of Fitness Index); chỉ số thích hợp so sánh (CFI - Comparative Fit Index); chỉ số Tucker và Lewis (TLI -Tucker và Lewis Index); chỉ số RMSEA

66


(Root Mean Square Error Aphương pháp roximation). Mô hình được xem là thích hợp với dữ liệu thị trường nếu được nhận các giá trị GFI, AGFI >= 0.8 (Forza và Filippini, 1998; Greenspoon và Saklofske, 1998), TLI, CFI > 0,9 (Bentler&Bonett, 1980); CMIN/df < 2, một số trường hợp CMIN/df có thể bằng 3 (Carmines&McIver, 1981); RMSEA < 0.08 (Steiger, 1990).

Độ tin cậy của thang đo


Ngoài việc đo lường độ tin cậy của tập hợp các biến quan sát đo lường một khái niệm (nhân tố) thông qua hệ số Cronbach’s Alpha, độ tin cậy của thang đo được đánh giá thông qua: (1) độ tin cậy tổng hợp (composite reliability); (2) Phương saitrích (variance extracted). Độ tin cậy tổng hợp (ρc) và tổng phương sai trích (ρvc) được tính theo công thức:


số biến quan sát λ i hệ số chuẩn hóa của biến quan sát thứ i 1 – λ i 2 1


: số biến quan sát


λi: hệ số chuẩn hóa của biến quan sát thứ i


1 – λi2: phương sai của sai số đo lường biến quan sát thứ i.


Độ tin cậy tổng hợp: Trong phân tích nhân tố khẳng định (CFA), độ tin cậy tổng hợp là chỉ số đánh giá tốt hơn Cronbach’s alpha bởi vì nó không phạm sai lầm giả định độ tin cậy của các biến là bằng nhau (Gerbing và Anderson, 1988). Theo Hair và cộng sự (2010), thang đo đảm bảo tin cậy khi độ tin cậy tổng hợp >0,6. Phương sai trích: Phương sai trích phản ánh lượng biến thiên chung của các biến quan sát được tính toán bởi biến tiềm ẩn. Thang đo có giá trị nếu phương sai trích được từ đó phải lớn hơn 0.5; nếu nhỏ hơn có nghĩa là phương sai do sai số đo lường lớn hơn phương sai được giải thích bởi khái niệm cần đo, do đó thang đo không đạt giá trị.

67


Giá trị hội tụ


Giá trị hội tụ được đánh giá dựa vào hệ số hồi quy nhân tố của từng biến của khái niệm tiềm ẩn nếu nó là đơn hướng. Nếu khái niệm tiềm ẩn là đa hướng thì giá trị hội tụ của khái niệm tiềm ẩn sẽ đạt yêu cầu khi giá trị hội tụ cho từng thành phần đều đạt. Thang đo đạt được giá trị hội tụ khi các trọng số chuẩn hóa của các thang đo đều cao (> 0.5) và có nghĩa thống kê (p < 0.05) (Gerbing và Anderson, 1988).

Giá trị phân biệt


Giá trị phân biệt thể hiện cấp độ phân biệt của các khái niệm đo lường (Steenkamp và Van Trijp, 1991). Có hai cấp độ kiểm định giá trị phân biệt bao gồm kiểm định giá trị phân biệt giữa các thành phần trong cùng một khái niệm nghiên cứu thuộc mô hình (within - construct discriminant validity) và kiểm định giá trị phân biệt giữa các khái niệm nghiên cứu (across - construct discriminant validity) (Bagozzi và Foxall, 1996). Giá trị phân biệt đạt được khi tương quan giữa hai thành phần của một khái niệm hay giữa hai khái niệm nhỏ hơn 1 một cách có ý nghĩa. Khi đó, mô hình đạt được độ phù hợp với dữ liệu thị trường.

Trình tự kiểm định thang đo bằng công cụ CFA được tiến hành như sau: Tiến hành CFA cho mỗi khái niệm đo lường để kiểm định tính đơn hướng, độ tin cậy tổng hợp, phương sai trích, giá trị hội tụ và giá trị phân biệt của các thành phần trong thang đo đa hướng. Tiến hành CFA chung cho tất cả các thang đo để kiểm định giá trị hội tụ và giá trị phân biệt giữa các khái niệm nghiên cứu. Sau khi kiểm định các thang đo bằng CFA, các biến đo lường nếu không phù hợp sẽ bị loại để điều chỉnh mô hình nghiên cứu phù hợp với dữ liệu nghiên cứu trước khi thực hiện kiểm định các giả thuyết nghiên cứu.

- Bước 4: Phân tích mô hình cấu trúc tuyến tính qua phần mềm AMOS (Analysis of Moment Structure) để kiểm định độ phù hợp mô hình nghiên cứu và các giả thuyết nghiên cứu.

..... Xem trang tiếp theo?
⇦ Trang trước - Trang tiếp theo ⇨

Ngày đăng: 13/05/2023