You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Hi,
I'm getting this issue when running the command : ❯ python -m mlx_vlm.chat_ui --model mlx-community/Qwen2-VL-2B-Instruct-4bit This is a beta version of the video understanding. It may not work as expected. added_tokens.json: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 392/392 [00:00<00:00, 1.49MB/s] special_tokens_map.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████| 613/613 [00:00<00:00, 946kB/s] config.json: 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████| 1.41k/1.41k [00:00<00:00, 9.53MB/s] chat_template.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████| 1.05k/1.05k [00:00<00:00, 9.20MB/s] model.safetensors.index.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████| 108k/108k [00:00<00:00, 11.6MB/s] preprocessor_config.json: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████| 567/567 [00:00<00:00, 3.01MB/s] tokenizer_config.json: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████| 4.30k/4.30k [00:00<00:00, 31.8MB/s] merges.txt: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████| 1.67M/1.67M [00:00<00:00, 2.77MB/s] vocab.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2.78M/2.78M [00:00<00:00, 9.16MB/s] tokenizer.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 11.4M/11.4M [00:00<00:00, 11.5MB/s] model.safetensors: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████| 1.25G/1.25G [00:30<00:00, 40.7MB/s] Fetching 11 files: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████| 11/11 [00:31<00:00, 2.84s/it] Fetching 11 files: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 11/11 [00:00<00:00, 8087.18it/s] Traceback (most recent call last):█████████████████████████████████████████████████████████████████████████████████████▏ | 10.5M/11.4M [00:00<00:00, 11.1MB/s] File "<frozen runpy>", line 198, in _run_module_as_main File "<frozen runpy>", line 88, in _run_code File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/site-packages/mlx_vlm/chat_ui.py", line 26, in <module> model, processor = load(args.model, {"trust_remote_code": True}) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/site-packages/mlx_vlm/utils.py", line 275, in load model = apply_lora_layers(model, adapter_path) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/site-packages/mlx_vlm/trainer/utils.py", line 139, in apply_lora_layers adapter_path = Path(adapter_path) ^^^^^^^^^^^^^^^^^^ File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/pathlib.py", line 1162, in __init__ super().__init__(*args) File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/pathlib.py", line 373, in __init__ raise TypeError( TypeError: argument should be a str or an os.PathLike object where __fspath__ returns a str, not 'dict'
The text was updated successfully, but these errors were encountered:
Hi,
I'm getting this issue when running the command :
❯ python -m mlx_vlm.chat_ui --model mlx-community/Qwen2-VL-2B-Instruct-4bit This is a beta version of the video understanding. It may not work as expected. added_tokens.json: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████| 392/392 [00:00<00:00, 1.49MB/s] special_tokens_map.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████| 613/613 [00:00<00:00, 946kB/s] config.json: 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████| 1.41k/1.41k [00:00<00:00, 9.53MB/s] chat_template.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████| 1.05k/1.05k [00:00<00:00, 9.20MB/s] model.safetensors.index.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████| 108k/108k [00:00<00:00, 11.6MB/s] preprocessor_config.json: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████| 567/567 [00:00<00:00, 3.01MB/s] tokenizer_config.json: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████| 4.30k/4.30k [00:00<00:00, 31.8MB/s] merges.txt: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████| 1.67M/1.67M [00:00<00:00, 2.77MB/s] vocab.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2.78M/2.78M [00:00<00:00, 9.16MB/s] tokenizer.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 11.4M/11.4M [00:00<00:00, 11.5MB/s] model.safetensors: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████| 1.25G/1.25G [00:30<00:00, 40.7MB/s] Fetching 11 files: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████| 11/11 [00:31<00:00, 2.84s/it] Fetching 11 files: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 11/11 [00:00<00:00, 8087.18it/s] Traceback (most recent call last):█████████████████████████████████████████████████████████████████████████████████████▏ | 10.5M/11.4M [00:00<00:00, 11.1MB/s] File "<frozen runpy>", line 198, in _run_module_as_main File "<frozen runpy>", line 88, in _run_code File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/site-packages/mlx_vlm/chat_ui.py", line 26, in <module> model, processor = load(args.model, {"trust_remote_code": True}) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/site-packages/mlx_vlm/utils.py", line 275, in load model = apply_lora_layers(model, adapter_path) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/site-packages/mlx_vlm/trainer/utils.py", line 139, in apply_lora_layers adapter_path = Path(adapter_path) ^^^^^^^^^^^^^^^^^^ File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/pathlib.py", line 1162, in __init__ super().__init__(*args) File "/Library/Frameworks/Python.framework/Versions/3.12/lib/python3.12/pathlib.py", line 373, in __init__ raise TypeError( TypeError: argument should be a str or an os.PathLike object where __fspath__ returns a str, not 'dict'
The text was updated successfully, but these errors were encountered: